Información de Fisher

De Wikipedia, la enciclopedia libre

En estadística matemática, la información de Fisher (a veces llamada simplemente información[1]​) es una forma de medir la cantidad de información que una variable aleatoria observable X contiene sobre un parámetro desconocido θ de una distribución que modela X. Formalmente, es la varianza del score (o puntuación), o el valor esperado de la información observada.

El papel de la información de Fisher en la teoría asintótica de la estimación de máxima verosimilitud fue destacado por el estadístico Sir Ronald Fisher (siguiendo algunos resultados iniciales de Francis Ysidro Edgeworth). La matriz de información de Fisher se utiliza para calcular las matrices de covarianza asociadas a las estimaciones de máxima verosimilitud. También puede utilizarse en la formulación de pruebas estadísticas, como la prueba de Wald.

En la estadística bayesiana, la información de Fisher interviene en la derivación de distribuciones a priori no informativas según la regla de Jeffreys.[2]​ También aparece como la covarianza de grandes muestras de la distribución posterior, siempre que la distribución a priori sea suficientemente suave (un resultado conocido como el teorema de Bernstein-von Mises, que fue anticipado por Laplace para las familias exponenciales).[3]​ El mismo resultado se utiliza al aproximar la posterior con la aproximación de Laplace, donde la información de Fisher aparece como la covarianza de la gaussiana ajustada.[4]

Se ha demostrado que los sistemas estadísticos de carácter científico (físicos, biológicos, etc.) cuyas funciones de verosimilitud obedecen a la invariancia de desplazamiento obedecen al máximo de información de Fisher.[5]​ El nivel del máximo depende de la naturaleza de las restricciones del sistema.

Definición[editar]

La información de Fisher es una forma de medir la cantidad de información que una variable aleatoria observable contiene respecto a un parámetro desconocido sobre el que se basa la probabilidad de . Sea la función de densidad de probabilidad (o función de masa de probabilidad) para , condicionada al valor de . Describe la probabilidad de que observemos un resultado dado de , dado un valor conocido de . Si tiene un pico pronunciado con respecto a los cambios en , es fácil indicar el valor «correcto» de a partir de los datos, o equivalentemente, que los datos proporcionan mucha información sobre el parámetro . Si es plano y disperso, se necesitarían muchas muestras de para estimar el valor real «verdadero» de que se podría obtener utilizando toda la población muestreada. Esto sugiere estudiar algún tipo de varianza con respecto a .

Formalmente, la derivada parcial con respecto a del logaritmo natural de la función de verosimilitud se denomina score. Bajo ciertas condiciones de regularidad, si es el parámetro verdadero (es decir se distribuye realmente como , puede demostrarse que el valor esperado (el primer momento) de la puntuación, evaluado en el valor verdadero del parámetro es 0:[6]

La información de Fisher es definida por la varianza del score:[7]

Nótese que . Una variable aleatoria con información de Fisher elevada implica que el valor absoluto del score suele ser alto. La información de Fisher no es función de una observación concreta, ya que se promedia la variable aleatoria .

Si log f(x; θ) es dos veces diferenciable con respecto a , y bajo ciertas condiciones de regularidad, entonces la información de Fisher también se puede escribir de la siguiente manera:[8]

ya que

y

En ese sentido, la información de Fisher puede verse como la curvatura de la curva de soporte (el gráfico de la log-verosimilitud). Cerca de la estimación de máxima verosimilitud, una información de Fisher baja indica que el máximo parece blunt, es decir, que el máximo es poco profundo y hay muchos valores cercanos con una log-verosimilitud similar. Por el contrario, una información de Fisher alta indica que el máximo es agudo.

Condiciones de regularidad[editar]

Las condiciones de regularidad son las siguientes:[9]

  1. La derivada parcial de con respecto a existe en casi todas partes. Puede fallar en existir en un conjunto nulo, siempre que este conjunto no dependa de .
  2. La integral de puede ser diferenciada bajo el signo integral con respecto a .
  3. El soporte de no depende de .

Si es un vector entonces las condiciones de regularidad deben cumplirse para cada componente de . Es fácil encontrar un ejemplo de una densidad que no satisface las condiciones de regularidad: La densidad de una variable Uniforme(0, ) no satisface las condiciones 1 y 3. En este caso, aunque la información de Fisher pueda calcularse a partir de la definición, no tendrá las propiedades que se le suponen típicamente.

En términos de probabilidad[editar]

Dado que la probabilidad de dado es siempre proporcional a la probabilidad , sus logaritmos difieren necesariamente en una constante que es independiente de , y las derivadas de estos logaritmos con respecto a son necesariamente iguales. Por lo tanto, se puede sustituir log-verosimilitud l(θ; X) en lugar de log en las definiciones de la información de Fisher.

Muestras de cualquier tamaño[editar]

El valor puede representar una única muestra extraída de una única distribución o puede representar una colección de muestras extraídas de una colección de distribuciones. Si hay muestras y las distribuciones correspondientes son estadísticamente independientes, la información de Fisher será necesariamente la suma de los valores de información de Fisher de una sola muestra, uno por cada muestra de su distribución. En particular, si las distribuciones son independientes e idénticamente distribuidas, entonces la información de Fisher será necesariamente veces la información de Fisher de una sola muestra de la distribución común. Dicho de otro modo, la información de Fisher de observaciones i.i.d. de una muestra de tamaño de una población es igual al producto de y la información de Fisher de una única observación de la misma población.

Derivación informal del límite de Cramér-Rao[editar]

La cota de Cramér-Rao[10][11]​ establece que la inversa de la información de Fisher es un límite inferior de la varianza de cualquier estimador insesgado de . H.L. Van Trees (1968) y B. Roy Frieden (2004) proporcionan el siguiente método para derivar la cota de Cramér-Rao, un resultado que describe el uso de la información de Fisher.

Informalmente, empezamos considerando un estimador insesgado . Matemáticamente, «insesgado» significa que:

Esta expresión es cero independiente de , por lo que su derivada parcial con respecto a también debe ser cero. Por la regla del producto, esta derivada parcial también es igual a:

Para cada , la función de verosimilitud es una función de densidad de probabilidad, y por tanto . Utilizando la regla de la cadena sobre la derivada parcial de y luego dividiendo y multiplicando por , se puede comprobar que

Utilizando ambos en lo anterior, obtenemos

Factorizando el integrando se obtiene

Elevando al cuadrado la expresión de la integral, la desigualdad de Cauchy-Schwarz da como resultado

El segundo factor entre corchetes se define como la información de Fisher, mientras que el primer factor entre corchetes es el error cuadrático medio esperado del estimador . Reordenando, la desigualdad da como resultado

En otras palabras, la precisión con la que podemos estimar está limitada fundamentalmente por la información de Fisher de la función de verosimilitud.

Alternativamente, la misma conclusión puede obtenerse directamente de la desigualdad de Cauchy-Schwarz para variables aleatorias, , aplicado a las variables aleatorias y , y observando que para estimadores insesgados tenemos

Ejemplo: Experimento Bernoulli de un solo parámetro[editar]

Un ensayo de Bernoulli es una variable aleatoria con dos resultados posibles, 0 y 1, donde 1 tiene una probabilidad de . El resultado se puede considerar como determinado por el lanzamiento de una moneda sesgada, siendo la probabilidad de cara (1) es y la probabilidad de cruz (0) es 1 - .

Sea un ensayo de Bernoulli de una muestra de la distribución, se puede calcular que la información de Fisher contenida en es:

Dado que la información de Fisher es aditiva, la información de Fisher contenida en ensayos Bernoulli independientes es

Si es uno de los posibles resultados de ensayos Bernoulli independientes y es el -ésimo resultado del -ésimo ensayo, entonces la probabilidad de viene dada por:

La media del -ésimo ensayo es

El valor esperado de la media de un ensayo es

donde la suma es sobre todos los posibles resultados del ensayo. El valor esperado del cuadrado de las medias es:

por lo que la varianza en el valor de la media es:

Se ve que la información de Fisher es el recíproco de la varianza del número medio de aciertos en ensayos Bernoulli. En general, esto es cierto. En este caso, el límite de Cramér-Rao es una igualdad.

Forma matricial[editar]

Cuando hay parámetros, de modo que es un × 1 vector entonces la información de Fisher adopta la forma de una matriz × . Esta matriz se denomina matriz de información de Fisher (MIF o Fisher information matrix) y tiene el elemento típico

La MIF es una matriz × semidefinida positiva. Si es definida positiva, define una métrica riemanniana en el espacio de parámetros -dimensional. La geometría de la información utiliza esto para conectar la información de Fisher con la geometría diferencial, y en ese contexto, esta métrica se conoce como métrica de la información de Fisher.

Bajo ciertas condiciones de regularidad, la matriz de información de Fisher también puede escribirse como

El resultado se puede interpretar de las siguientes formas:

  • Puede derivarse como el hessiano de la entropía relativa.
  • Puede utilizarse como métrica riemanniana para definir la geometría de Fisher-Rao cuando es definida positivamente.[12]
  • Puede entenderse como una métrica inducida a partir de la métrica euclidiana, tras un cambio de variable apropiado.
  • En su forma de valor complejo, es la métrica de Fubini-Study.
  • Es la pieza clave de la demostración del teorema de Wilks, que permite estimar la región de confianza para la estimación de máxima verosimilitud (para aquellas condiciones en las que se aplica) sin necesidad del principio de verosimilitud.
  • En los casos en que los cálculos analíticos de la MIF anteriores son difíciles, es posible formar un promedio de estimaciones fáciles de Monte Carlo del hessiano de la función de log-verosimilitud negativa como estimación del MIF.[13][14][15]​ Las estimaciones pueden basarse en los valores de la función de verosimilitud logarítmica negativa o en el gradiente de la función de verosimilitud logarítmica negativa; no es necesario un cálculo analítico del hessiano de la función de log-verosimilitud negativa.

Parámetros ortogonales de información[editar]

Se considera que dos vectores de componentes de parámetros 1 y 2 son ortogonales desde el punto de vista de la información si la matriz de información de Fisher es diagonal de bloques, con estos componentes en bloques separados.[16]​ Los parámetros ortogonales son fáciles de tratar en el sentido de que sus estimaciones de máxima verosimilitud no están asintóticamente correlacionadas. Al considerar cómo analizar un modelo estadístico, se aconseja al modelizador que invierta algún tiempo en buscar una parametrización ortogonal del modelo, en particular cuando el parámetro de interés es unidimensional, pero el parámetro perturbador puede tener cualquier dimensión.[17]

Modelo estadístico singular[editar]

Si la matriz de información de Fisher es definida positiva para todo , se dice que el modelo estadístico correspondiente es regular; en caso contrario, se dice que el modelo estadístico es singular.[18]​ Ejemplos de modelos estadísticos singulares son los siguientes: mezclas normales, mezclas binomiales, mezclas multinomiales, redes bayesianas, redes neuronales, funciones de base radial, modelos de Markov ocultos, gramáticas estocásticas libres de contexto, regresiones de rango reducido, máquinas de Boltzmann.

En el aprendizaje automático, si un modelo estadístico se diseña de forma que extraiga la estructura oculta de un fenómeno aleatorio, se convierte naturalmente en singular.[19]

Distribución normal multivariante[editar]

La MIF para una distribución normal multivariante de variables, tiene una forma especial. Sea el vector -dimensional de parámetros y el vector de variables aleatorias normales sea . Suponiendo que los valores medios de estas variables aleatorias son , y sea la matriz de covarianza. Entonces, para , la entrada (m, n) de la MIF es:[20]

donde denota la transposición de un vector, denota la traza de una matriz cuadrada, y:

Nótese que un caso especial, pero muy común, es aquel en el que , una constante. Entonces

En este caso, la matriz de información de Fisher puede identificarse con la matriz de coeficientes de las ecuaciones normales de la teoría de estimación por mínimos cuadrados.

Otro caso especial ocurre cuando la media y la covarianza dependen de dos parámetros vectoriales diferentes, dígase, β y θ. Esto es especialmente popular en el análisis de datos espaciales, que a menudo utiliza un modelo lineal con residuos correlacionados. En este caso:[21]

,

donde

Propiedades[editar]

Regla de la cadena[editar]

Al igual que la entropía o la información mutua, la información de Fisher también posee una regla de descomposición en cadena. En particular, si e son variables aleatorias distribuidas conjuntamente, se deduce que:[22]

donde y también es la información de Fisher de relativa a 𝜃, calculada con respecto a la densidad condicional de dado un valor específico = .

Como caso especial, si las dos variables aleatorias son independientes, la información proporcionada por las dos variables aleatorias es la suma de la información de cada variable aleatoria por separado:

Por consiguiente, la información de una muestra aleatoria de observaciones independientes e idénticamente distribuidas es veces la información de una muestra de tamaño 1.

Divergencia f[editar]

Dada una función convexa que es finito para todo , , y , (que podría ser infinita), define una divergencia f (). Entonces, si es estrictamente convexo en , entonces localmente en , la matriz de información de Fisher es una métrica, en el sentido de que[23]

donde es la distribución parametrizada por . Es decir, es la distribución con pdf .

En esta forma, está claro que la matriz de información de Fisher es una métrica riemanniana, y varía correctamente bajo un cambio de variables.

Estadístico suficiente[editar]

La información proporcionada por una estadística suficiente es la misma que la de la muestra . Esto puede verse utilizando el criterio de factorización de Neyman para un estadístico suficiente. Si es suficiente para , entonces

para algunas funciones g y h. La independencia de de implica

y la igualdad de información se deduce entonces de la definición de información de Fisher. En términos más generales, si es una estadística, entonces

con igualdad si y sólo si es una estadística suficiente.[24]

Reparametrización[editar]

La información de Fisher depende de la parametrización del problema. Si y son dos parametrizaciones escalares de un problema de estimación, y es una función continuamente diferenciable de , entonces

donde y son las medidas de información de Fisher de y , respectivamente.[25]

En el caso vectorial, supongamos que y son k-vectores que parametrizan un problema de estimación, y supongamos que es una función continuamente diferenciable de , entonces,[26]

donde el elemento de la k × k matriz jacobiana se define como

y donde es la matriz transpuesta de .

En la geometría de la información, esto se ve como un cambio de coordenadas en una variedad riemanniana, y las propiedades intrínsecas de la curvatura no cambian bajo diferentes parametrizaciones. En general, la matriz de información de Fisher proporciona una métrica riemanniana (más concretamente, la métrica de Fisher-Rao) para la variedad de estados termodinámicos, y puede utilizarse como medida de complejidad geométrica de la información para una clasificación de transiciones de fase, por ejemplo, la curvatura escalar del tensor métrico termodinámico diverge en (y sólo en) un punto de transición de fase.[27]

En el contexto termodinámico, la matriz de información de Fisher está directamente relacionada con la tasa de cambio de los parámetros de orden correspondientes.[28]​ En particular, tales relaciones identifican transiciones de fase de segundo orden a través de divergencias de elementos individuales de la matriz de información de Fisher.

Desigualdad isoperimétrica[editar]

La matriz de información de Fisher desempeña un papel en una desigualdad como la desigualdad isoperimétrica.[29]​ De todas las distribuciones de probabilidad con una entropía dada, aquella cuya matriz de información de Fisher tiene la traza más pequeña es la distribución gaussiana. Es como si, de todos los conjuntos acotados con un volumen dado, la esfera tuviera la superficie más pequeña.

La prueba consiste en tomar una variable aleatoria multivariante con función de densidad y añadir un parámetro de localización para formar una familia de densidades . Entonces, por analogía con la fórmula de Minkowski-Steiner, la «superficie» de se define como

donde es una variable gaussiana con matriz de covarianza . El nombre de «superficie» es adecuado porque la potencia de entropía es el volumen del «conjunto de apoyo efectivo»,[30]​ por lo que es la «derivada» del volumen del conjunto de soporte efectivo, muy parecida a la fórmula de Minkowski-Steiner. El resto de la prueba utiliza la desigualdad de potencia de entropía, que es como la desigualdad de Brunn-Minkowski. La traza de la matriz de información de Fisher es un factor de .

Aplicaciones[editar]

Diseño óptimo de experimentos[editar]

La información de Fisher se utiliza ampliamente en el diseño óptimo de experimentos. Debido a la reciprocidad entre estimador-varianza e información de Fisher, la minimización de la varianza corresponde a la maximización de la información.

Cuando el modelo estadístico lineal (o linealizado) tiene varios parámetros, la media del estimador del parámetro es un vector y su varianza es una matriz. La inversa de la matriz de varianza se denomina «matriz de información». Dado que la varianza del estimador de un vector de parámetros es una matriz, el problema de «minimizar la varianza» es complicado. Mediante la teoría estadística, los estadísticos comprimen la matriz de información utilizando síntesis estadística de valor real; al ser funciones de valor real, estos «criterios de información» pueden maximizarse.

Tradicionalmente, los estadísticos han evaluado estimadores y diseños considerando alguna síntesis estadística de la matriz de covarianza (de un estimador insesgado), normalmente con valores reales positivos (como el determinante o la traza de la matriz). Trabajar con números reales positivos aporta varias ventajas: Si el estimador de un único parámetro tiene una varianza positiva, entonces la varianza y la información de Fisher son números reales positivos; por lo tanto, son miembros del cono convexo de números reales no negativos (cuyos miembros no nulos tienen recíprocos en este mismo cono).

Para varios parámetros, las matrices de covarianza y las matrices de información son elementos del cono convexo de matrices simétricas no negativas-definidas en un espacio vectorial parcialmente ordenado, bajo el orden de Loewner (Löwner). Este cono es cerrado bajo la adición e inversión de matrices, así como bajo la multiplicación de números reales positivos y matrices. Una exposición de la teoría de matrices y del orden de Loewner aparece en Pukelsheim.[31]

Los criterios de optimalidad tradicionales son los invariantes de la matriz de información, en el sentido de la teoría de invariantes; algebraicamente, los criterios de optimalidad tradicionales son funcionales de los valores propios de la matriz de información (de Fisher).

Prioridad de Jeffreys en estadística bayesiana[editar]

En estadística bayesiana, la información de Fisher se utiliza para calcular la prioridad de Jeffreys, que es una prioridad estándar no informativa para parámetros de distribución continua.[32]

Neurociencia computacional[editar]

La información de Fisher se ha utilizado para encontrar límites a la precisión de los códigos neuronales. En ese caso, suele ser la respuesta conjunta de muchas neuronas que representan una variable de baja dimensión (como un parámetro de estímulo). En particular, se ha estudiado el papel de las correlaciones en el ruido de las respuestas neuronales.[33]

Epidemiología[editar]

Se utilizó la información de Fisher para estudiar el grado de información de distintas fuentes de datos para estimar el número de reproducción del SARS-CoV-2.[34]

Derivación de leyes físicas[editar]

La información de Fisher desempeña un papel central en un controvertido principio propuesto por Frieden como base de las leyes físicas, afirmación que ha sido puesta en duda.[35]

Aprendizaje automático[editar]

La información de Fisher se utiliza en técnicas de aprendizaje automático como la consolidación del peso elástico,[36]​ que reduce el olvido catastrófico en las redes neuronales artificiales.

La información de Fisher puede utilizarse como alternativa al hessiano de la función de pérdida en el entrenamiento de redes de descenso de gradiente de segundo orden.[37]

Discriminación de colores[editar]

Utilizando una métrica de información de Fisher, da Fonseca et. al[38]​ investigaron el grado en que las elipses de MacAdam (elipses de discriminación del color) pueden derivarse de las funciones de respuesta de los fotorreceptores de la retina.

Relación con la entropía relativa[editar]

La información de Fisher está relacionada con la entropía relativa.[39]​ La entropía relativa, o divergencia de Kullback-Leibler, entre dos distribuciones y puede escribirse como

Considérese ahora una familia de distribuciones de probabilidad parametrizado por . Entonces, la divergencia de Kullback-Leibler, entre dos distribuciones de la familia se puede escribir como

Si es fija, entonces la entropía relativa entre dos distribuciones de la misma familia se minimiza en . Para cercano a , se puede expandir la expresión anterior en una serie de segundo orden:

Pero la derivada de segundo orden puede escribirse como

Así, la información de Fisher representa la curvatura de la entropía relativa de una distribución condicional con respecto a sus parámetros.

Historia[editar]

La información de Fisher fue discutida por varios de los primeros estadísticos, especialmente F. Y. Edgeworth.[40]​ Por ejemplo, Savage[41]​ dice: «En ella [la información de Fisher], él [Fisher] se anticipó hasta cierto punto (Edgeworth 1908-9 esp. 502, 507-8, 662, 677-8, 82-5 y referencia citas de él [Edgeworth], incluyendo a Pearson y Filon 1898 [. . .])». Existen varias fuentes históricas tempranas[42]​ y varias reseñas de esta obra temprana.[43][44][45]

Véase también[editar]

Otras medidas empleadas en la teoría de la información:

Referencias[editar]

  1. Lehmann y Casella, p. 115
  2. Robert, Christian (2007). «Noninformative prior distributions». The Bayesian Choice (en inglés) (2da edición). Springer. pp. 127-141. ISBN 978-0-387-71598-8. 
  3. Le Cam, Lucien (1986). Asymptotic Methods in Statistical Decision Theory (en inglés). Nueva York: Springer. pp. 618-621. ISBN 0-387-96307-3. 
  4. Kass, Robert E.; Tierney, Luke; Kadane, Joseph B. (1990). «The Validity of Posterior Expansions Based on Laplace's Method». En Geisser, S.; Hodges, J.S., Zellner, A., eds. Bayesian and Likelihood Methods in Statistics and Econometrics (en inglés). Elsevier. pp. 473-488. ISBN 0-444-88376-2. 
  5. Frieden y Gatenby (2013)
  6. Suba Rao (12 de abril de 2013). «Lectures on statistical inference» (en inglés). Archivado desde el original el 26 de septiembre de 2020. 
  7. Fisher (1922)
  8. Lehmann & Casella, eq. (2.5.16), Lemma 5.3, p.116.
  9. Schervish, Mark J. (1995). Theory of Statistics (en inglés). Nueva York: Springer. p. 111. ISBN 978-1-4612-4250-5. OCLC 852790658. 
  10. Cramer (1946)
  11. Rao (1945)
  12. Nielsen, Frank (2013). «Cramér-Rao Lower Bound and Information Geometry». Connected at Infinity II. Texts and Readings in Mathematics (en inglés) 67. pp. 18-37. ISBN 978-93-80250-51-9. doi:10.1007/978-93-86279-56-9_2. arxiv: 1301.3578 s2cid: 16759683. 
  13. Spall, J. C. (2005). «Monte Carlo Computation of the Fisher Information Matrix in Nonstandard Settings». Journal of Computational and Graphical Statistics (en inglés) 14 (4): 889-909. doi:10.1198/106186005X78800. Semantic Scholar Corpus ID: 16090098. 
  14. Spall, James C. (2008-06). «Improved methods for Monte Carlo estimation of the fisher information matrix». 2008 American Control Conference (en inglés) (Seattle, WA, 11 al 13 de junio: IEEE): 2395-2400. doi:10.1109/acc.2008.4586850. Consultado el 16 de mayo de 2024. 
  15. Das, Sonjoy; Spall, James C.; Ghanem, Roger (1 de febrero de 2010). «Efficient Monte Carlo computation of Fisher information matrix using prior information». Computational Statistics & Data Analysis 54 (2): 272-289. ISSN 0167-9473. doi:10.1016/j.csda.2009.09.018. Consultado el 16 de mayo de 2024. 
  16. Barndorff-Nielsen, O. E.; Cox, D. R. (1994). Inference and Asymptotics (en inglés). Chapman & Hall. ISBN 9780412494406. 
  17. Cox, D. R.; Reid, N. (1987). «Parameter orthogonality and approximate conditional inference (with discussion)». J. Royal Statistical Soc. B (en inglés) 49: 1-39. doi:10.1111/j.2517-6161.1987.tb01422.x. 
  18. Watanabe, Sumio (2008-03). «Algebraic geometrical method in singular statistical estimation». Quantum Bio-Informatics (en inglés) (Accardi, L.; Freudenberg, W.; Ohya, M. edición) (World Scientific): 325-336. ISBN 978-981-279-316-4. doi:10.1142/9789812793171_0024. Consultado el 16 de mayo de 2024. 
  19. Watanabe, S. (2013). «A Widely Applicable Bayesian Information Criterion». Journal of Machine Learning Research (en inglés) 14: 867-897. 
  20. Malagò, Luigi; Pistone, Giovanni (2015). «Information Geometry of the Gaussian Distribution in View of Stochastic Optimization». Proceedings of the 2015 ACM Conference on Foundations of Genetic Algorithms XIII (en inglés). pp. 150-162. ISBN 9781450334341. doi:10.1145/2725494.2725510. s2cid: 693896. 
  21. Mardia, K. V.; Marshall, R. J. (1984). «Maximum likelihood estimation of models for residual covariance in spatial regression». Biometrika (en inglés) 71 (1): 135-146. doi:10.1093/biomet/71.1.135. 
  22. Zamir, R. (1998-05). «A proof of the Fisher information inequality via a data processing argument». IEEE Transactions on Information Theory 44 (3): 1246-1250. doi:10.1109/18.669301. Consultado el 17 de mayo de 2024. 
  23. Polyanskiy, Yury (2017). «Lecture notes on information theory, chapter 29, ECE563 (UIUC)». Lecture notes on information theory (en inglés). Archivado desde el original el 24 de mayo de 2022. 
  24. Schervish, Mark J. (1995). Theory Statistics (en inglés). Springer-Verlag. p. 113. 
  25. Lehmann & Casella, eq. (2.5.11).
  26. Lehmann & Casella, eq. (2.6.16).
  27. Janke, W.; Johnston, D.A.; Kenna, R. (2004-05). «Information geometry and phase transitions». Physica A: Statistical Mechanics and its Applications 336 (1-2): 181. ISSN 0378-4371. doi:10.1016/j.physa.2004.01.023. Consultado el 18 de mayo de 2024. 
  28. Prokopenko, Mikhail; Lizier, Joseph T.; Obst, Oliver; Wang, X. Rosalind (13 de octubre de 2011). «Relating Fisher information to order parameters». Physical Review E 84 (4): 041116. doi:10.1103/PhysRevE.84.041116. Consultado el 18 de mayo de 2024. 
  29. Costa, M.; Cover, T. (1984-11). «On the similarity of the entropy power inequality and the Brunn- Minkowski inequality (Corresp.)». IEEE Transactions on Information Theory (en inglés) 30 (6): 837-839. ISSN 0018-9448. doi:10.1109/TIT.1984.1056983. Consultado el 18 de mayo de 2024. 
  30. Cover, Thomas M. (2006). Elements of information theory (en inglés). Joy A. Thomas (2da. edición). Hoboken, N.J.: Wiley-Interscience. p. 256. ISBN 0-471-24195-4. OCLC 59879802. 
  31. Pukelsheim, Friedrich (1993). Optimal Design of Experiments (en inglés). Nueva York: Wiley. ISBN 978-0-471-61971-0. 
  32. Bernardo, Jose M.; Smith, Adrian F. M. (1994). Bayesian Theory (en inglés). Nueva York: John Wiley & Sons. ISBN 978-0-471-92416-6. 
  33. Abbott, L. F.; Dayan, Peter (1 de enero de 1999). «The Effect of Correlated Variability on the Accuracy of a Population Code». Neural Computation (en inglés) 11 (1): 91-101. ISSN 0899-7667. doi:10.1162/089976699300016827. Consultado el 18 de mayo de 2024. 
  34. Parag, Kris V.; Donnelly, Christl A.; Zarebski, Alexander E. (2022-09). «Quantifying the information in noisy epidemic curves». Nature Computational Science (en inglés) 2 (9): 584-594. ISSN 2662-8457. doi:10.1038/s43588-022-00313-1. Consultado el 18 de mayo de 2024. 
  35. Streater, R. F. (2007). Lost Causes in and beyond Physics (en inglés). Springer. p. 69. ISBN 978-3-540-36581-5. 
  36. Kirkpatrick, James; Pascanu, Razvan; Rabinowitz, Neil; Veness, Joel; Desjardins, Guillaume; Rusu, Andrei A.; Milan, Kieran; Quan, John et al. (28 de marzo de 2017). «Overcoming catastrophic forgetting in neural networks». Proceedings of the National Academy of Sciences (en inglés) 114 (13): 3521-3526. ISSN 0027-8424. PMC 5380101. PMID 28292907. doi:10.1073/pnas.1611835114. Consultado el 18 de mayo de 2024. 
  37. Martens, James (2020). «New Insights and Perspectives on the Natural Gradient Method». Journal of Machine Learning Research (en inglés) (21). 
  38. da Fonseca, María; Samengo, Inés (2016-12). «Derivation of Human Chromatic Discrimination Ability from an Information-Theoretical Notion of Distance in Color Space». Neural Computation (en inglés) 28 (12): 2628-2655. ISSN 0899-7667. doi:10.1162/neco_a_00903. Consultado el 18 de mayo de 2024. 
  39. Gourieroux, Christian; Monfort, Alain (26 de octubre de 1995). Statistics and Econometric Models (en inglés). Cambridge University Press. p. 87. ISBN 978-0-521-47744-4. Consultado el 18 de mayo de 2024. 
  40. Sacage (1976)
  41. Savage (1976), p. 156
  42. Edgeworth (Setiembre de 1908, diciembre de 1908)
  43. Pratt (1976)
  44. Stigler (1978, 1986, 1999)
  45. Hald (1998, 1999)

Bibliografía[editar]