Questions marquées «information-theory»

13
Relation entre entropie et SNR

En général, toute forme d'énropie est définie comme une incertitude ou un caractère aléatoire. Dans un environnement bruyant, avec une augmentation du bruit, je pense que l'entropie augmente car nous sommes plus incertains sur le contenu informationnel du signal souhaité. Quelle est la relation...

9
Capacité du canal AWGN

Je ne comprends pas bien les concepts de base de la communication sur les canaux AWGN. Je sais que la capacité d'un canal AWGN à temps discret est: et elle est atteinte lorsque le signal d'entrée est gaussien Distribution. Mais, qu'est-ce que cela signifie que le signal d'entrée est gaussien? Cela...