Quelles sont les statistiques de la transformée de Fourier discrète du bruit blanc gaussien?

10

Considérons un signal de bruit blanc gaussien . Si nous échantillonnons ce signal et calculons la transformée de Fourier discrète, quelles sont les statistiques des amplitudes de Fourier résultantes?x(t)

DanielSank
la source
1
Vous devez commencer avec un signal gaussien blanc à temps discret . L'échantillonnage d'un processus blanc à temps continu est mathématiquement mal défini, car la fonction d'autocorrélation de ce processus est décrite par une distribution delta de Dirac. Étant donné que l'autocorrélation du processus échantillonné est une version échantillonnée de l'autocorrélation du processus continu d'origine, vous devez considérer une version échantillonnée de la distribution delta de Dirac, qui n'est pas définie.
Matt L.
@MattL. "[La] autocorrélation du processus échantillonné est une version échantillonnée de l'autocorrélation du processus continu d'origine ...". Ce n'est pas évident pour moi, en fait. Expliquer que ce serait une auto Q&R utile.
DanielSank
Faites attention à ce que les réponses tiennent pour toute transformation unitaire du bruit blanc gaussien.
Royi
@Royi, je ne suis pas d'accord avec votre modification. Pouvez-vous fournir un lien indiquant que la majuscule que vous avez utilisée dans le titre est conforme à une politique de site?
DanielSank
Restauré votre style. L'essentiel de la modification a été l'ajout de balises pertinentes.
Royi

Réponses:

15

Outils mathématiques

Nous pouvons faire le calcul en utilisant certains éléments de base de la théorie des probabilités et de l'analyse de Fourier. Il y a trois éléments (nous désignons la densité de probabilité d'une variable aléatoireX à valeur x comme PX(x)):

  1. Étant donné une variable aléatoire X avec distribution PX(x), la distribution de la variable mise à l'échelle Y=aX est PY(y)=(1/a)PX(y/a).

  2. La distribution de probabilité d'une somme de deux variables aléatoires est égale à la convolution des distributions de probabilité des sommets. En d'autres termes, siZ=X+Y puis PZ(z)=(PXPY)(z) indique une convolution.

  3. La transformée de Fourier de la convolution de deux fonctions est égale au produit des transformées de Fourier de ces deux fonctions. En d'autres termes:

dx(fg)(x)eikx=(dxf(x)eikx)(dxg(x)eikx).

Calcul

Désigner le processus aléatoire comme x(t). L'échantillonnage discret produit une séquence de valeursxnque nous supposons être statistiquement non corrélés. Nous supposons également que pour chaquen xn est gaussien distribué avec un écart-type σ. On note la fonction gaussienne avec écart typeσ par le symbole Gσ nous dirions donc que Pxn(x)=Gσ(x).

Les amplitudes de transformée de Fourier discrètes sont définies comme

Xkn=0N1xnei2πnk/N.
En se concentrant pour l'instant sur la partie réelle que nous avons
Xk=n=0N1xncos(2πnk/N).
Ceci est juste une somme, donc selon la règle # 2 la distribution de probabilité de Xkest égal à la convolution multiple des distributions de probabilité des termes à additionner. Nous réécrivons la somme comme
Xk=n=0N1yn
ynxncos(2πnk/N).
Le facteur cosinus est un facteur d'échelle déterministe. Nous savons que la distribution desxn est Gσ afin que nous puissions utiliser la règle n ° 1 ci-dessus pour écrire la distribution de yn:
Pyn(y)=1cos(2πnk/N)Gσ(ycos(2πnk/N))=Gσcn,k(y)
où pour la brièveté de la notation, nous avons défini cn,kcos(2πnk/N).

Par conséquent, la répartition des Xk est la convolution multiple sur les fonctions Gσcn,k:

PXk(x)=(Gσc0,kGσc1,k)(x).

Il n'est pas évident de faire la convolution multiple, mais en utilisant la règle # 3, c'est facile. Désignant la transformée de Fourier d'une fonction parF on a

F(PXk)=n=0N1F(Gσcn,k).

La transformée de Fourier d'une gaussienne de largeur σ est un autre gaussien de largeur 1/σ, donc nous obtenons

F(PXk)(ν)=n=0N1G1/σcn,k=n=0N1σ2cn,k22πexp[ν22(1/σ2cn,k2)]=(σ22π)N/2(n=0N1cn,k)exp[ν22σ2n=0N1cos(2πnk/N)2].
Tous les éléments précédant l'exponentielle sont indépendants de νet sont donc des facteurs de normalisation, nous les ignorons donc. La somme est justeN/2 nous obtenons donc
F(PXk)exp[ν22σ2N2]=G2/σ2N
et donc
PXk=GσN/2.

Nous avons donc calculé la distribution de probabilité de la partie réelle du coefficient de Fourier Xk. Il est gaussien distribué avec un écart-typeσN/2. Notez que la distribution est indépendante de l'indice de fréquencek, ce qui est logique pour le bruit non corrélé. Par symétrie, la partie imaginaire doit être distribuée exactement de la même manière.

Intuitivement, nous nous attendons à ce que l'ajout de plus d'intégration réduise la largeur de la distribution du bruit qui en résulte. Cependant, nous avons constaté que l’écart type de la distribution desXk grandit à mesure queN. Ceci est simplement dû à notre choix de normalisation de la transformée de Fourier discrète. Si nous l'avions plutôt normalisé comme ça

Xk=1Nn=0N1xnei2πnk/N
alors nous aurions trouvé
PXk=Gσ/2N
ce qui correspond à l'intuition selon laquelle la distribution du bruit diminue à mesure que nous ajoutons plus de données. Avec cette normalisation, un signal cohérent se démodulerait en un phaseur d'amplitude fixe, donc nous retrouvons la relation habituelle selon laquelle le rapport du signal aux amplitudes de bruit évolue commeN.
DanielSank
la source
Tout cela est beau et dandy, mais lorsqu'il s'agit de plusieurs variables aléatoires, et en particulier de variables aléatoires gaussiennes, les covariances sont d'une certaine importance, tout comme la question de savoir lesquelles des variables aléatoires sont indépendantes . Pourriez-vous aborder ce problème dans votre réponse? (Variables aléatoires gaussiennes Marginalement ne doivent pas être conjointement trop gaussienne, sont vos2Nvariables aléatoires conjointement gaussiennes? sont-ils indépendants?
Dilip Sarwate
1
@DilipSarwate c'est une bonne question. Malheureusement, je ne connais pas (encore) la réponse. Je passe par ce que vous pourriez appeler "l'auto-étude" du traitement du signal stochastique et je n'ai pas encore compris pourquoi les valeurs des processus physiques à différents moments sont souvent modélisées comme conjointement gaussiennes (ou même ce que cela signifie vraiment). Je soupçonne que cela a à voir avec les équations différentielles régissant le processus sous-jacent, mais encore une fois, je ne sais pas encore. Si vous vous souciez de faire une auto-question, ce serait vraiment utile. Sinon, je poserai éventuellement les questions pertinentes sur ce site.
DanielSank
@DilipSarwate J'ai remarqué que vous avez utilisé l'hypothèse d'un processus gaussien dans votre réponse à cette autre question . Vous avez même noté qu'un "processus gaussien" n'est pas la même chose que de simplement dire que la distribution du processus à untest gaussien distribué. Cela suggère que les processus gaussiens sont communs dans la nature / ingénierie. Est-ce vrai? Si c'est le cas, pouvez-vous me donner un indice pour savoir où je peux savoir pourquoi?
DanielSank
1
@DanielSank Selon le théorème de la limite centrale, la combinaison d'un très grand nombre de variables aléatoires indépendantes produira toujours une distribution normale, quelle que soit la distribution d'origine des variables aléatoires individuelles. Puisque la distribution normale est très bien étudiée, on suppose souvent que le processus observé correspond au théorème de la limite centrale. Ce n'est pas toujours le cas (comme les photons sur un CCD par exemple), mais cela a tendance à être une approximation sûre pour de nombreux problèmes de physique macroscopique.
PhilMacKay
1
@ anishtain4 Voici une seule ligne (longue!) de Python qui simule Thr processus: import numpy as np; np.std(np.real(np.sum(np.random.normal(0, 1, (10000, 10000)) * np.exp(1.0j * 2 * np.pi * np.linspace(0, 1, 10000) * 50), axis=1))). Quand je fais cela, j'obtiens la sortie 70, qui est égale à10,000/2comme cela devrait être. Vous pouvez peut-être comparer votre simulation à cette ligne.
DanielSank
2

Je voudrais donner un autre point de vue sur la réponse de @ DanielSank. Nous supposons d'abord quevnCN(0,σ2) et est iid Sa transformée de Fourier discrète est alors:

Vk=1Nn=0N1vnej2πnNk
.

Nous voulons calculer la distribution de Vk Pour commencer, on note que depuis vnest un bruit blanc gaussien, il est symétrique de façon circulaire, donc les parties réelle et imaginaire de sa transformée de Fourier seront distribuées de la même manière. Il suffit donc de calculer la distribution de la partie réelle puis de la combiner avec la partie imaginaire.

Nous séparons donc Vkdans ses parties réelles et imaginaires. On a:

Vk=1Nn=0N1vnej2πnNk
Vk=1Nn=0N1(R{vn}+jI{vn})(cos(2πnNk)+jsin(2πnNk))
Vk=R{Vk}1+R{Vk}2+jI{Vk}1+jI{Vk}2
Vk=R{Vk}+jI{Vk}

Où:

R{Vk}=R{Vk}1+R{Vk}2
I{Vk}=I{Vk}1+I{Vk}2

Et:

R{Vk}1=1Nn=0N1R{vn}cos(2πnNk)

R{Vk}2=1Nn=0N1I{vn}sin(2πnNk)

I{Vk}1=1Nn=0N1R{vn}sin(2πnNk)

I{Vk}2=1Nn=0N1I{vn}cos(2πnNk)

Maintenant, nous travaillons à dériver la distribution de R{Vk}1 et R{Vk}2. Comme dans la réponse de @ DanielSank, nous définissons:

xn,k=1Ncos(2πnNk)R{vn}=1Ncn,kR{vn}

On peut ainsi écrire:

R{Vk}1=n=0N1xn,k

Cela nous permet d'appliquer facilement les faits suivants sur les combinaisons linéaires de variables aléatoires gaussiennes. À savoir, nous savons que:

  1. Quand xCN(0,σ2) puis R{x}N(0,12σ2)
  2. Quand xN(μ,σ2) puis cxN(cμ,c2σ2)

Ensemble, cela implique que xn,kN(0,cn,k22N2σ2). Maintenant, nous travaillons sur la somme. Nous savons que:

  1. Quand xnN(μn,σn2) puis y=n=0N1xnN(n=0N1μn,n=0N1σn2)
  2. n=0N1cn,k2=N2

Cela implique que:

R{Vk}1N(0,n=0N1cn,k22N2σ2)=N(0,N22N2σ2=N(0,σ24N)

Nous avons donc montré que:

R{Vk}1N(0,σ24N)

Maintenant, nous appliquons le même argument à R{Vk}2. En abusant de notre notation, nous réécrivons:

xn,k=1Nsin(2πnNk)I{vn}=1Nsn,kI{vn}

Répéter le même argument et noter que la gaussienne est une distribution symétrique (afin que nous puissions ignorer la différence de signe), nous donne:

R{Vk}2N(0,σ24N)

Depuis n=0N1sn,k2=N2ainsi que. Donc donc depuisR{Vk}=R{Vk}1+R{Vk}2, on a:

R{Vk}N(0,σ24N+σ24N)=N(0,σ22N)

Nous avons donc montré que:

R{Vk}N(0,σ22N)

Par symétrie circulaire, on sait alors aussi que:

I{Vk}N(0,σ22N)

Donc depuis Vk=R{Vk}+jI{Vk}, on arrive enfin à:

VkCN(0,σ2N)

Par conséquent, prendre la DFT divise la variance par la longueur de la fenêtre DFT - en supposant que la fenêtre est rectangulaire bien sûr - ce qui est le même résultat que dans la réponse de @ DanielSank.

Le mec
la source
Pourquoi Sum of C(n,k)^2=N/2?
Hãi Ngô Thanh