Différences entre filtrage et lissage de régression polynomiale?

14

Quelles sont les différences entre le filtrage passe-bas classique (avec un IIR ou FIR) et le "lissage" par régression polynomiale et / ou interpolation localisée au N degré (dans le cas du suréchantillonnage), en particulier dans le cas où N est supérieur à 1 mais inférieur au nombre local de points utilisés dans l'ajustement de régression.

hotpaw2
la source
+1 Grande question, tu m'as battu dessus. :-) AFAIK utilisant N = 2 correspond au filtrage linéaire "classique" que nous connaissons, mais je peux me tromper.
Spacey
2
reconstruction sinc vs interpolation spline: cnx.org/content/m11126/latest "l'interpolation spline est plus douce que l'interpolation sinc. C'est parce que le support des splines cardinales est plus compact que celui de la fonction sinc."
endolith

Réponses:

10

Le filtrage passe-bas et le lissage de régression polynomiale peuvent être considérés comme approximations d'une fonction. Cependant, les moyens d'y parvenir sont différents. La question clé à poser ici est "Pouvez-vous faire l'un en fonction de l'autre?" et la réponse courte est "pas toujours", pour les raisons qui sont expliquées ci-dessous.

Lors du lissage par filtrage, l'opération clé est la convolution où , qui dans le domaine fréquentiel se traduit par y = F - 1 ( F ( x ) F ( h ) )F désigne la transformée de Fourier discrète (et F - 1 l'inverse). La transformée de Fourier discrète (par exemple F ( x ) ) offre une approximation de xy(n)=x(n)h(n)y=F1(F(x)F(h))FF1F(x)xcomme une somme de fonctions trigonométriques. Lorsque est un filtre passe-bas, un plus petit nombre de composants basse fréquence sont conservés et les changements brusques de x sont lissés. Cela définit le filtrage passe-bas dans le contexte de l'approximation des fonctions en utilisant des fonctions trigonométriques comme fonctions de base , mais il convient de revoir la formule de convolution pour noter que lors du filtrage, y (n) (la sortie du filtre) dépend de x ( n ) ainsi qu'une somme pondérée des échantillons antérieurs de x (la pondération ici déterminée par la "forme" de h ). (des considérations similaires valent bien sûr pour les filtres IIR avec l'ajout des valeurs passées de y (hxx(n)xh aussi)y(n)

Cependant, lors du lissage par un polynôme de n degrés , la sortie de l'interpolant ne dépend que de et d'un mélange de fonctions de base (différentes) (également appelées monômes ). Quelles sont ces différentes fonctions de base? C'est une constante ( a 0 x 0 ), une ligne ( a 1 x ), une parabole ( a 2 x 2 ) et ainsi de suite (veuillez vous référer à cex(n)a0x0a1xa2x2 pour une belle illustration). Habituellement cependant, lorsque l'on traite des échantillons équidistants dans le temps et pour des raisons de précision, ce qui est utilisé est la forme de Newton du polynôme. La raison pour laquelle je le cite est que, grâce à cela, il est facile de voir que lors de l'interpolation linéaire, vous pouvez construire un noyau de filtre qui renvoie une somme pondérée linéairement des échantillons disponibles, tout comme un polynôme d'interpolation d'ordre inférieur utiliserait des "lignes" pour interpoler entre deux échantillons. Mais à des degrés plus élevés, les deux méthodes d'approximation renverraient des résultats différents (en raison des différences dans les fonctions de base).

x(n)x -notez le point sur la normalisation-)

La raison pour laquelle le filtrage est parfois utilisé comme interpolation, par exemple dans le cas de "l'interpolation Sinc", est qu'il est également logique d'un point de vue physique. La représentation idéalisée d'un système à bande limitée (par exemple un amplificateur (linéaire) ou une lentille dans un système optique ) dans le domaine temporel est l'impulsion sinc. La représentation du domaine fréquentiel d'une impulsion sinc est une "impulsion" rectangulaire. Par conséquent, avec très peu d'hypothèses, nous nous attendons à ce qu'une valeur manquante soit plus ou moins proche de ses voisins (bien sûr, dans des limites). Si cela a été effectué avec un polynôme d'ordre n (pour un n plus élevé), d'une certaine manière, nous «corrigeons»x3par exemple). Je parle à proprement parler de contraintes imposées par interpolation lorsque l'on essaie de "deviner" objectivement des valeurs manquantes.

Il n'y a pas de "meilleure méthode" universelle, cela dépend à peu près du problème d'interpolation auquel vous êtes confronté.

J'espère que ça aide.

PS (Les artefacts générés par chacune des deux méthodes d'approximation sont également différents, voir par exemple le phénomène Gibbs et le sur- ajustement , bien que le sur-ajustement soit "de l'autre côté" de votre question.)

A_A
la source
+1 Excellente réponse. Quelques suivis: 1) Vous mentionnez ne pas prendre en compte les valeurs passées de x [n] dans l'ajustement polynomial, cependant, n'est-ce pas un point discutable basé sur ce que vous avez dit à propos de x [n] étant une somme de sinus / cosinus de toute façon? (Les valeurs passées prises en compte ou non, cela reste valable). 2) Je suis quelque peu confus par l'interprétation physique de quelque chose qui est «limité en bande» dans ce cas. Tout n'est pas limité en bande? Autrement dit, passera certaines fréquences et et atténuera d'autres? Qu'est-ce qu'un exemple physique d'un système non limité en bande? Merci.
Spacey
1) Je ne suis pas sûr de bien comprendre ce que vous voulez dire, mais je faisais référence aux différences entre l'obtention de la sortie de la convolution et de l'ajustement polynomial. 2) Dans certains cas, les signaux et les systèmes sont traités dans le même cadre. Théoriquement, il existe des signaux qui ne sont pas limités en bande ( en.wikipedia.org/wiki/… ) tels que le bruit (vraiment) blanc ( en.wikipedia.org/wiki/White_noise ). Un très bon traitement est disponible dans Signals & Systems d'Oppenheim et Willsky. J'ai utilisé le terme ici pour faire le lien entre bandlimit-> sinc
A_A
Ok, j'ai réécrit ma question - juste pour m'assurer: 1) Plus nous utilisons de polynômes d'ordre supérieur, plus nous sommes «biaisés» en forçant des relations entre des points, ce qui pourrait ne pas correspondre à la réalité physique, oui? (Plus n'est pas toujours mieux dans ce cas.) 2) En ce qui concerne la limitation de bande - je suis juste curieux de savoir pourquoi nous disons cela, parce que CHAQUE bande système n'est pas limitée, en ce sens qu'elle ne prend que certaines fréquences et en atténue d'autres? Merci.
Spacey
Je suis désolé que cela ait échappé à mon attention. Pour ces questions spécifiques: 1) Pas nécessairement. Dans l'exemple donné, je faisais référence aux restrictions imposées par la "forme" des monômes. 2) Les signaux et les systèmes aideront beaucoup. On dit que certaines choses sont exactes car les applications d'ingénierie utilisent un sous-ensemble de mathématiques qui, dans un autre domaine, pourraient avoir une très bonne utilisation pour des signaux non limités en bande (comme le processus aléatoire vraiment uniforme (bruit blanc) lié à ce qui précède).
A_A
2

Belle question et réponses éclairantes. Je voulais partager quelques idées comme suit. Il existe également des bases polynomiales orthogonales telles que les bases polynomiales de Legendre (contrairement aux bases monomiales) qui sont plus stables dans l'ajustement des polynômes de degré supérieur. Étant donné que les bases sinc utilisées dans la formule d'interpolation de Shannon (qui peuvent également être considérées comme une opération de convolution et donc une opération de filtrage) sont des bases orthogonales pour un espace de Hilbert à bande limitée, les bases polynomiales orthogonales peuvent servir à approximer une plus grande classe de fonctions qui ne sont pas dans la bande limitée. l'espace avec le pouvoir d'orthogonalité avec eux.

Le filtrage polynomial (et non l'interpolation) existe également dans la littérature en chimie depuis 1960. Une bonne note de cours sur la revisitation de ce sujet a été écrite par R.Schafer, intitulée What is Savitzky-Golay Filter, lien: http: // www-inst. eecs.berkeley.edu/~ee123/fa12/docs/SGFilter.pdf

Neeks
la source