Diferencia entre revisiones de «Cadena de Márkov»

De Wikipedia, la enciclopedia libre
Contenido eliminado Contenido añadido
m Revertidos los cambios de 147.250.1.2 a la última edición de AVBOT
Línea 14: Línea 14:


En [[matemática]]s, se define como un [[proceso estocástico]] discreto que cumple con la [[propiedad de Márkov]], es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.
En [[matemática]]s, se define como un [[proceso estocástico]] discreto que cumple con la [[propiedad de Márkov]], es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.

Suce moi
Una cadena de Márkov es una secuencia ''X<sub>1</sub>'', ''X<sub>2</sub>'', ''X<sub>3</sub>'',... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de ''X<sub>n</sub>'' es el estado del proceso en el tiempo ''n''. Si la distribución de probabilidad condicional de ''X''<sub>''n''+1</sub> en estados pasados es una función de ''X''<sub>''n''</sub> por sí sola, entonces:
Una cadena de Márkov es una secuencia ''X<sub>1</sub>'', ''X<sub>2</sub>'', ''X<sub>3</sub>'',... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de ''X<sub>n</sub>'' es el estado del proceso en el tiempo ''n''. Si la distribución de probabilidad condicional de ''X''<sub>''n''+1</sub> en estados pasados es una función de ''X''<sub>''n''</sub> por sí sola, entonces:



Revisión del 16:16 8 dic 2009

Una cadena de Márkov, que recibe su nombre del matemático ruso Andrei Andreevitch Markov (1856-1922), es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar una moneda al aire o un dado.

Este tipo de proceso, introducido por Márkov en un artículo publicado en 1907,[1]​ presenta una forma de dependencia simple, pero muy útil en muchos modelos, entre las variables aleatorias que forman un proceso estocástico. En los negocios, las cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

Definición formal

En matemáticas, se define como un proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.

Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces:

Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Márkov.


Cadenas de Márkov en tiempo continuo

Si en lugar de considerar una secuencia discreta X1, X2,..., Xi,.. con i indexado en el conjunto de números naturales, se consideran las variables aleatorias Xt con t que varía en un intervalo continuo del conjunto de números reales, tendremos una cadena en tiempo continuo. Para este tipo de cadenas en tiempo continuo la propiedad de Márkov se expresa de la siguiente manera:

tal que

Referencias

  1. Basharin, Gely P. et al. (2004). «The Life and Work of A. A. Márkov». Elsevier. Linear Algebra and its Applications. Vol. 386:3-26, 2004. 

Enlaces externos