Séminaire EDP-Analyse ICJ

Sur l'inégalité de l'entropie exponentielle pour l'entropie de Rényi

par Arnaud Marsiglietti (California Institute of Technology)

Europe/Paris
Fokko Du Cloux (Université Claude Bernard Lyon 1 - Campus de la Doua, Bâtiment Braconnier)

Fokko Du Cloux

Université Claude Bernard Lyon 1 - Campus de la Doua, Bâtiment Braconnier

Description

L'inégalité de l'entropie exponentielle, fondamentale en théorie de l'information de Shannon, affirme que pour tous vecteurs aléatoires à densité $X,Y$ dans $\mathbb{R}^n$ indépendants, $$ N(X+Y) \geq N(X) + N(Y), $$ où $N(X) = e^{\frac{2}{n} h(X)}$ désigne l'entropie exponentielle d'un vecteur aléatoire $X$ dans $\mathbb{R}^n$. Ici, $h(X) = - \int f \log(f)$ représente l'entropie usuelle de $X$ ayant une densité de probabilité $f$. L'inégalité de l'entropie exponentielle a également des applications intéressantes en dehors de la théorie de l'information, notamment en concentration de la mesure puisqu'elle implique l'inégalité de log-Sobolev de Gross, ainsi qu'en EDP puisqu'elle implique l'inégalité de Nash. En théorie de l'information, un autre type d'entropie, l'entropie de Rényi, a tout autant de l'importance que l'entropie de Shannon. Dans cet exposé, nous montrons qu'une inégalité de type entropie exponentielle est valable pour l'entropie de Rényi. (Basé sur une collaboration avec Sergey Bobkov)