CLUSTERS :: Cadenas de Markov
 



Cadenas de Markov

Cadenas de Markov : Tiempo Discreto | Cadenas de Markov : Tiempo Continuo

Para el cluster aLeXaNDrE se desarrolló una aplicación que permite resolver Cadenas de Markov a Tiempo Discreto (CMTD) y a Tiempo Continuo (CMTC), que cumplan con la propiedad de homogeneidad y de ser irreducibles. La propiedad de homogeneidad implica que la evolución futura de la Cadena está completamente especificada, en términos probabilísticos, a partir del estado actual. Una Cadena se considera Irreducible si no existe un estado en el cual un proceso se pueda quedar de forma indefinida.

Las operaciones más relevantes utilizadas en la solución de Cadenas de Markov son:

  • Multiplicación de Matrices.
  • Resolución de Sistemas de Ecuaciones Lineales.

La aplicación utiliza un modelo maestro-esclavo. El maestro se encarga de asignar las tareas en las que los esclavos van a trabajar y de presentar lo datos. Mientras que los esclavos realizan el procesamiento requerido.

 


Cadenas de Markov : Tiempo Discreto

Objetivos:

  • Obtener la Distribución en el paso n: Evaluar la probabilidad de que el proceso se encuentre en un estado específico en un paso dado.
  • Obtener la Distribución de Régimen: Permitie describir el comportamiento a largo término de la Cadena y determinar el estado de equilibrio del sistema.

 

Distribución en el paso n:

Se define la Matriz de Probabilidad de Transición P, como:

Matriz de Probabilidades de Transcición

donde, pij es la probabilidad de pasar al estado j en el siguiente paso, dado que el estado actual es el i. Además, se cumple que:

pij

Se define el vector Distribución de Estado, como:

Distribución de Estado

cuyos elementos son las probabilidades de estado al paso n.

La Matriz de Probabilidad de Transición P en el paso n, puede expresarse como la potencia n-ésima de la matriz P, y la Distribución de Estado puede expresarse como:

Distribución al Paso n

 

Distribución de Régimen:

Puede obtenerse mediante la ecuación:

Distribución de Régimen

donde:

Vector p

y P es la Matriz de Probabilidad de Transición.

El sistema de ecuaciones obtenido tiene infinitas soluciones, por lo que se requiere de una condición de normalización:

Condición de Normalización

[SUBIR]


Cadenas de Markov : Tiempo Continuo

Objetivos:

  • Obtener la Distribución en el tiempo t: Evaluar la probabilidad de que el proceso se encuentre en un estado específico en un tiempo dado.
  • Obtener la Distribución de Régimen: Permitie describir el comportamiento a largo término de la Cadena y determinar el estado de equilibrio del sistema.

 

Distribución en el paso n:

Se define la Matriz de Probabilidad de Transición P, como:

Matriz de Probabilidades de Transición

Además, se cumple que:

Identidad

Se define el vector Distribución de Estado, como:

Distribución de Estado

cuyos elementos son las probabilidades de estado al tiempo t.

Se define el Generador Infinitesimal Q de la Matriz de Probabilidades de Transición P(t), como:

Generador Infinitesimal

donde, qij es la tasa con la cual el proceso se mueve del estado i al estado j. Además, se cumple que:

Condiciones

La Matriz de Probabilidad de Transición P(t) puede expresarse como:

Matriz de Probabilidad de Transición

que a su vez puede resolverse mediante el uso de la Serie de Taylor para las funciones exponenciales:

Serie de Taylor

la Distribución de Estado puede expresarse como:

Distribución de Estado

 

Distribución de Régimen:

Puede obtenerse mediante la ecuación:

Distribución de Regimen

donde:

Vector p

y Q es el Generador Infinitesimal.

El sistema de ecuaciones obtenido tiene infinitas soluciones, por lo que se requiere de una condición de normalización:

Condición de Normalización

[SUBIR]