Cadena De Marcokv
Enviado por jmendozam01 • 19 de Mayo de 2013 • 1.801 Palabras (8 Páginas) • 498 Visitas
n matemática se define como un proceso estocástico discreto que cumple con la propiedad de Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente resume toda la información relevante para describir en probabilidad su estado futuro.
Una cadena de Márkov es una secuencia X1, X2, X3,... de variables aleatorias. El rango de estas variables, es llamado espacio estado, el valor de Xn es el estado del proceso en el tiempo n. Si la distribución de probabilidad condicional de Xn+1 en estados pasados es una función de Xn por sí sola, entonces:
Donde xi es el estado del proceso en el instante i. La identidad mostrada es la propiedad de Márkov.
Notación útil Cadenas homogéneas y no homogéneas [editar]
Una cadena de Márkov se dice homogénea si la probabilidad de ir del estado i al estado j en un paso no depende del tiempo en el que se encuentra la cadena, esto es:
para todo n y para cualquier i, j.
Si para alguna pareja de estados y para algún tiempo n la propiedad antes mencionada no se cumple diremos que la cadena de Márkov es no homogénea.
Probabilidades de transición y matriz de transición [editar]
La probabilidad de ir del estado i al estado j en n unidades de tiempo es
,
en la probabilidad de transición en un paso se omite el superíndice de modo que queda
Un hecho importante es que las probabilidades de transición en n pasos satisfacen la ecuación de Chapman-Kolmogórov, esto es, para cualquier k tal que 0 < k < n se cumple que
donde E denota el espacio de estados.
Cuando la cadena de Márkov es homogénea, muchas de sus propiedades útiles se pueden obtener a través de su matriz de transición, definida entrada a entrada como
esto es, la entrada i, j corresponde a la probabilidad de ir del estado i a j en un paso.
Del mismo modo se puede obtener la matriz de transición en n pasos como:
, donde .
Vector de probabilidad invariante [editar]
Se define la distribución inicial .
Diremos que un vector de probabilidad (finito o infinito numerable) es invariante para una cadena de Márkov si
donde P denota la matriz de transición de la cadena de Márkov. Al vector de probabilidad invariante también se le llama distribución estacionaria o distribución de equilibrio.
Clases de comunicación [editar]
Para dos estados i,j en el espacio de estados E, diremos que de i se accede a j (y se denotará ) si
para algún n,
si y entonces diremos que i comunica con j y se denotará i↔j.
La propiedad "↔" es una relación de equivalencia. Esta relación induce una partición en el espacio de estados. A estas clases de equivalencia las llamaremos clases de comunicación.
Dado un estado x, denotaremos a su clase de comunicación como C(x).
Diremos que un subconjunto C del espacio de estados (al que denotaremos E) es cerrado si ningún estado de E-C puede ser accedido desde un estado de C, es decir, si para todo x∈C, para todo y∈E-C y para todo natural m>0.
Tiempos de entrada [editar]
Si , definimos el primer tiempo de entrada a C como la variable aleatoria
esto es, denota la primera vez que la cadena entra al conjunto de estados C.
Recurrencia [editar]
En una cadena de Márkov con espacio de estados E, si x∈E se define y diremos que:
x es estado recurrente si .
x es transitorio si
x es absorbente si
Una clase de comunicación es clase recurrente si todos sus estados son recurrentes.
Sea , si x∈Ediremos que:
x es cero-recurrente si
x es positivo-recurrente si
El real se interpreta como el tiempo promedio de recurrencia.
Periodicidad [editar]
El periodo de un estado x∈E se define como:
donde denota el máximo común divisor.
Si d(x)=1 diremos que x es un estado aperiódico.
Una cadena de Márkov se dice aperiódica si todos sus estados son aperiódicos.
Tipos de cadenas de Márkov [editar]
Cadenas irreducibles [editar]
Una cadena de Márkov se dice irreducible si se cumple cualquiera de las siguientes condiciones (equivalentes entre sí):
Desde cualquier estado de E se puede acceder a cualquier otro.
Todos los estados se comunican entre sí.
C(x)=E para algún x∈E.
C(x)=E para todo x∈E.
El único conjunto cerrado es el total.
La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de cadenas de Márkov irreducibles.
Cadenas positivo-recurrentes [editar]
Una cadena de Márkov se dice positivo-recurrente si todos sus estados son positivo-recurrentes. Si la cadena es además irreducible es posible demostrar que existe un único vector de probabilidad invariante y está dado por:
Cadenas regulares [editar]
Una cadena de Márkov se dice regular (también primitiva o ergódica) si existe alguna potencia positiva de la matriz de transición cuyas entradas sean todas estrictamente mayores que cero.
Cuando el espacio de estados E es finito, si P denota la matriz de transición de la cadena se tiene que:
donde W es una matriz con todos sus renglones iguales a un mismo vector de probabilidad w, que resulta ser el vector de probabilidad invariante de la cadena. En el caso de cadenas regulares, éste vector invariante es único.
Cadenas absorbentes [editar]
Una cadena de Márkov con espacio de estados finito se dice absorbente si se cumplen las dos condiciones siguientes:
La cadena tiene al menos un estado absorbente.
De cualquier estado no absorbente se accede a algún estado absorbente.
Si denotamos como A al conjunto de todos los estados absorbentes y a su complemento como D, tenemos los siguientes resultados:
Su matriz de transición siempre se puede llevar a una de la forma
donde la submatriz Q corresponde a los estados del conjunto D, I es la matriz identidad, 0 es la matriz nula y R alguna submatriz.
, esto es, no importa en donde se encuentre la cadena, eventualmente terminará en un estado absorbente.
Cadenas de Márkov en tiempo continuo [editar]
Si
...