Ir al contenido

Entropía de Rényi

De Wikipedia, la enciclopedia libre

En teoría de la información, la entropía de Rényi generaliza la entropía de Hartley, la entropía de Shannon, la entropía de colisión y la entropía min. Las entropías cuantifican la diversidad, incertidumbre o aleatoriedad de un sistema. La entropía de Rényi lleva el nombre de Alfréd Rényi.[1]​ En el contexto de estimación de la dimensión fractal, la entropía de Rényi forma la base del concepto de dimensiones generalizadas.

La entropía de Rényi es importante en ecología y estadística como índice de diversidad. La entropía de Rényi también es importante en información cuántica, donde se puede usar como medida del entrelazamiento. En el modelo de Heisenberg de cadena de espín XY, se puede calcular explícitamente la entropía de Rényi como función de α gracias al hecho de que es una función automórfica con respecto a un subgrupo particular del grupo modular.[2][3]​ En ciencia computacional teórica, la entropía min se usa en el contexto de extractores de aleatoriedad.

Definición

[editar]

La entropía de Rényi de orden , donde y , se define como

.

Aquí, es una variable aleatoria discreta con resultados posibles y probabilidades correspondientes para , y el logaritmo es de base 2. Si las probabilidades son para todo , entonces todas las entropías de Rényi de la distribución son iguales: . En general, para todas las variables aleatorias discretas , es una función no creciente de .

Sus aplicaciones suelen utilizar la siguiente relación entre la entropía de Rényi y la norma p del vector de probabilidades:

.

donde la distribución de probabilidad discreta se interpreta como un vector en con y .

La entropía de Rényi para cualquier es Schur-cóncava.

Casos especiales de la entropía de Rényi

[editar]
Entropía de Rényi de una variable aleatoria con dos posibles salidas frente a p1, donde P = (p1, 1 − p1). Se representan H0, H1, H2 y H, en unidades de shannons.

Cuando α tiende a cero, la entropía de Rényi le da un peso cada vez más parejo a todos los eventos posibles, independientemente de sus probabilidades. En el límite α → 0, la entropía de Rényi es simplemente el logaritmo del tamaño del soporte de X. El límite α → 1 es la entropía de Shannon. Cuando α tiende a infinito, la entropía de Rényi está determinada por los eventos de mayor probabilidad.

Entropía max o de Hartley

[editar]

Dadas probabilidades no nulas,[4] es el logaritmo de la cardinalidad de X, a veces llamado la entropía de Hartley de X,

Entropía de Shannon

[editar]

El valor límite de cuando α → 1 es la entropía de Shannon:[5]

Entropía de colisión

[editar]

La entropía de colisión, a veces llamada simplemente entropía de Rényi, se refiere al caso α = 2,

donde X e Y son independientes e idénticamente distribuidas.

Entropía min

[editar]

En el límite , la entropía de Rényi converge a la entropía min :

De forma equivalente, la entropía min es el mayor número real b tal que todos los eventos ocurren con probabilidad a lo sumo .

El nombre entropía min proviene del hecho de que es la menor medida de la entropía de la familia de entropías de Rényi. En este sentido, es la manera más fuerte de medir la información contenida en una variable aleatoria discreta. En particular, la entropía min nunca es mayor que la entropía de Shannon.

La entropía min tiene importantes aplicaciones en extractores de aleatoriedad en ciencia computacional teórica: los extractores son capaces de extraer aleatoriedad de fuentes aleatorias que tienen gran entropía min. Tener simplemente una entropía de Shannon grande no es suficiente para ello.

Entropía lineal

[editar]

Un caso particular de la entropía de Rényi corresponde a la entropía lineal ():

Desigualdades entre diferentes valores de α

[editar]

Se puede probar por derivación que es no creciente con ,[6]​ de la forma

que es proporcional a la divergencia de Kullback-Leibler (que es siempre no negativa), donde .

En casos particulares las desigualdades se pueden probar también con la desigualdad de Jensen:[7][8]

Para valores de , también se cumplen desigualdades en el otro sentido. En particular, se tiene[9][cita requerida]

Por otro lado, la entropía de Shannon puede ser arbitrariamente grande para una variable aleatoria con una entropía min dada.[cita requerida]

Divergencia de Rényi

[editar]

Al igual que las entropías de Rényi absolutas, Rényi también definió un espectro de medidas de la divergencia generalizando la divergencia de Kullback-Leibler.[10]

La divergencia de Rényi de orden α o divergencia alfa de una distribución P respecto de una distribución Q se define como

donde 0 < α < ∞ y α ≠ 1. Se puede definir la divergencia de Rényi para los valores particulares α = 0, 1, ∞ tomando el límite, y en particular el límite α → 1 da la divergencia de Kullback-Leibler.

Algunos casos particulares:

: menos la probabilidad en Q de que pi > 0;
: menos dos veces el logaritmo del coeficiente de Bhattacharyya; (Nielsen y Boltz (2009))
: la divergencia de Kullback-Leibler;
: el logaritmo del ratio esperado de las probabilidades;
: el logaritmo del ratio máximo de las probabilidades.

La divergencia de Rényi es de hecho una divergencia, lo que quiere decir simplemente que es mayor o igual que cero, siendo cero si y solo si P = Q. Para un par de distribuciones cualesquiera pero fijas P y Q, la divergencia de Rényi es no decreciente como función de su orden α, y es continua en elconjunto de α para los que es finita.

Por qué α = 1 es especial

[editar]

El valor α = 1, que da la entropía de Shannon y la divergencia de Kullback-Leibler, es especial ya que es solo con α = 1 con que se cumple la regla de la cadena de la probabilidad condicionada de forma exacta:

para las entropías absolutas, y

para las entropías relativas.

Esto último en particular significa que si buscamos una distribución p(x, a) que minimice la divergencia de alguna medida previa subyacente m(x, a), y obtenemos nueva información que solo afecta a la distribución a, entonces la distribución de p(x|a) permanece m(x|a), sin cambios.

Las otras divergencias de Rényi satisfacen los criterios de ser positivas y continuas; ser invariantes bajo transformaciones coordinadas inyectivas; y de combinarse aditivamente cuando A y X son independientes, de forma que p(A, X) = p(A)p(X), luego

y

Las propiedades más fuertes de las cantidades α = 1, que permiten definir la información condicional y la información mutua en teoría de comunicación, pueden ser muy importantes en otras aplicaciones, o completamente irrelevantes, dependiendo de las necesidades de tales aplicaciones.

Familias exponenciales

[editar]

Las entropías de Rényi y las divergencias para una familia exponencial admiten expresiones simples[11]

y

donde

es la divergencia de Jensen.

Significado físico

[editar]

La entropía de Rényi en física cuántica no se considera un observable, debido a su dependencia no lineal con la matriz de densidad. La entropía de Shannon comparte esta dependencia no lineal. Ansari y Nazarov mostraron una correspondencia que revela el significado físico del flujo de entropía de Renyi en el tiempo. Su propuesta es similar al teorema de fluctuación-disipación en espíritu y permite la medida de la entropía cuántica usando la estadística de contado completo de las transferencias de energía.[12][13][14]

Véase también

[editar]

Notas

[editar]
  1. Rényi (1961)
  2. Franchini (2008)
  3. Its (2010)
  4. RFC 4086, page 6
  5. Bromiley, Thacker y Bouhova-Thacker (2004)
  6. Beck (1993)
  7. se cumple ya que .
  8. se cumple ya que .
  9. se cumple ya que
  10. Van Erven, Tim; Harremoës, Peter (2014). «Rényi Divergence and Kullback–Leibler Divergence». IEEE Transactions on Information Theory 60 (7): 3797-3820. doi:10.1109/TIT.2014.2320500. 
  11. Nielsen y Nock (2011)
  12. Nazarov (2011)
  13. Ansari_Nazarov (2015a)
  14. Ansari_Nazarov (2015b)

Referencias

[editar]