Entropie différentielle
Cet article ne cite pas suffisamment ses sources ().
Si vous disposez d'ouvrages ou d'articles de référence ou si vous connaissez des sites web de qualité traitant du thème abordé ici, merci de compléter l'article en donnant les références utiles à sa vérifiabilité et en les liant à la section « Notes et références ».
En pratique : Quelles sources sont attendues ? Comment ajouter mes sources ?
L'entropie différentielle est un concept de la théorie de l'information qui étend le concept de l'entropie de Shannon aux lois de probabilités continues.
Définitions
Pour une variable aléatoire X avec une distribution de probabilité f et définie sur un ensemble , on définit l'entropie différentielle h(x) par :
Pour un couple de variables aléatoires (X , Y) de loi jointe f(x,y), alors l'entropie différentielle conditionnelle de X sachant Y vaut :
Propriétés
- On a :
- L'entropie différentielle d'une loi continue peut être négative, contrairement à celle d'une loi discrète.
- Majoration : Soit X une variable aléatoire continue de variance Var(X). Alors on a
avec égalité si et seulement si X suit une loi normale.
Entropie différentielle pour plusieurs distributions
Dans le tableau qui suit, est la fonction gamma, est la fonction digamma, est la fonction bêta, et γ est la constante d'Euler-Mascheroni.
Distribution | Fonction de distribution de probabilités | Entropie |
---|---|---|
Loi uniforme continue | ||
Loi normale | ||
Loi exponentielle | ||
Loi de Cauchy | ||
Loi du χ² |
| |
Distribution Gamma | ||
Loi logistique | ||
Statistique de Maxwell-Boltzmann | ||
Distribution de Pareto | ||
Loi de Student | ||
Distribution de Weibull | ||
Loi normale multidimensionnelle |
Références
Voir aussi
Liens externes
- (en) Eric W. Weisstein, « Differential Entropy », sur MathWorld
- Portail des mathématiques
- Portail de l’informatique