Estimación bayesiana recursiva

De Wikipedia, la enciclopedia libre

Este artículo trata sobre el filtro Bayes, un enfoque probabilístico general. Para el filtro de spam con un nombre similar, véase Filtrado bayesiano de spam.

En la teoría de la probabilidad, la estadística y el aprendizaje automático, la estimación bayesiana recursiva, también conocida como filtro de Bayes, es un enfoque probabilístico general para estimar una función de densidad de probabilidad (FDP) desconocida de forma recursiva a lo largo del tiempo utilizando mediciones entrantes y un modelo de proceso matemático. El proceso se basa en gran medida en conceptos y modelos matemáticos que se teorizan dentro de un estudio de probabilidades a priori y a posteriori conocido como estadística bayesiana.

En robótica[editar]

Un filtro de Bayes es un algoritmo utilizado en informática para calcular las probabilidades de múltiples creencias que permiten a un robot inferir su posición y orientación. Esencialmente, los filtros de Bayes permiten a los robots actualizar continuamente su posición más probable dentro de un sistema de coordenadas, basándose en los datos de los sensores adquiridos más recientemente. Se trata de un algoritmo recursivo. Consta de dos partes: predicción e innovación. Si las variables se distribuyen normalmente y las transiciones son lineales, el filtro de Bayes equivale al filtro de Kalman.

En un ejemplo sencillo, un robot que se desplaza por una cuadrícula puede tener varios sensores diferentes que le proporcionan información sobre su entorno. Al principio, el robot puede tener la certeza de que se encuentra en la posición (0,0). Sin embargo, a medida que se aleja más y más de su posición original, el robot tiene cada vez menos certeza sobre su posición; utilizando un filtro de Bayes, se puede asignar una probabilidad a la creencia del robot sobre su posición actual, y esa probabilidad se puede actualizar continuamente a partir de la información adicional de los sensores.

Modelo[editar]

Las mediciones son las variables manifestaciones de un modelo oculto de Markov (HMM), lo que significa que el estado verdadero se supone que es un proceso de Markov no observado. La siguiente imagen presenta una red bayesiana de un HMM.


Debido al supuesto de Markov, la probabilidad del estado verdadero actual dado el inmediatamente anterior es condicionalmente independiente de los otros estados anteriores.

Del mismo modo, la medición en el paso de tiempo k sólo depende del estado actual, por lo que es condicionalmente independiente de todos los demás estados dado el estado actual.

Utilizando estos supuestos, la distribución de probabilidad sobre todos los estados del HMM puede escribirse simplemente como:

Sin embargo, cuando se utiliza el filtro de Kalman para estimar el estado x, la distribución de probabilidad de interés se asocia con los estados actuales condicionados a las mediciones hasta el paso de tiempo actual. (Esto se consigue marginando los estados anteriores y dividiendo por la probabilidad del conjunto de mediciones).

De este modo, los pasos de predicción y actualización del filtro de Kalman se escriben de forma probabilística. La distribución de probabilidad asociada al estado predicho es la suma (integral) de los productos de la distribución de probabilidad asociada a la transición del (k - 1)-ésimo paso temporal al k-ésimo y la distribución de probabilidad asociada al estado anterior, sobre todos los posibles .

La distribución de probabilidad de actualización es proporcional al producto de la probabilidad de medición y el estado predicho.

El denominador

es constante con respecto a , por lo que siempre podemos sustituirlo por un coeficiente , que normalmente puede ignorarse en la práctica. El numerador puede calcularse y luego simplemente normalizarse, ya que su integral debe ser la unidad.

Aplicaciones[editar]

Filtrado bayesiano secuencial[editar]

El filtrado bayesiano secuencial es la extensión de la estimación bayesiana para el caso en que el valor observado cambia en el tiempo. Es un método para estimar el valor real de una variable observada que evoluciona en el tiempo.

El método se denomina:

Filtrado[editar]

Al estimar el valor actual dadas las observaciones pasadas y actuales.

Suavizado[editar]

Al estimar valores pasados dadas observaciones pasadas y actuales, y

Predicción[editar]

Al estimar un valor futuro probable a partir de observaciones pasadas y presentes.

La noción de filtrado bayesiano secuencial se utiliza ampliamente en control y robótica.

Bibliografía[editar]

  • Arulampalam, M. Sanjeev; Maskell, Simon; Gordon, Neil (2002). "A Tutorial on Particle Filters for On-line Non-linear/Non-Gaussian Bayesian Tracking". IEEE Transactions on Signal Processing. 50 (2): 174–188
  • Burkhart, Michael C. (2019). "Chapter 1. An Overview of Bayesian Filtering". A Discriminative Approach to Bayesian Filtering with Applications to Human Neural Decoding. Providence, RI, USA: Brown University
  • Chen, Zhe Sage (2003). "Bayesian Filtering: From Kalman Filters to Particle Filters, and Beyond". Statistics: A Journal of Theoretical and Applied Statistics. 182 (1): 1–69
  • Diard, Julien; Bessière, Pierre; Mazer, Emmanuel (2003). "A survey of probabilistic models, using the Bayesian Programming methodology as a unifying framework" (PDF)
  • Särkkä, Simo (2013). Bayesian Filtering and Smoothing. Cambridge University Press
  • Volkov, Alexander (2015). "Accuracy bounds of non-Gaussian Bayesian tracking in a NLOS environment". Signal Processing. 108: 498–508