Skip to content

Cadenas de Markov en tiempo continuo

Definición de cadenas de Markov

Ejemplos de "cadenas de Markov"

  • Un modelo simplista del tiempo atmosférico en un lugar está dado por la secuencia temporal {X1, X2, X3, ...}, donde Xi tiene los dos únicos valores 0 ("seco") y 1 ("lluvioso").

  • Los precios de las acciones de una empresa tienen una incertidumbre respecto a si el precio va a hacer una transición hacia un valor mayor o menor.

En ambos casos, las transiciones pueden modelarse de manera probabilística y es crucial el conocimiento del estado actual. Las cadenas o procesos de Markov son un modelo de dependencia.

Otros ejemplos de aplicaciones

  • Predicción de cambios en la demanda de electricidad
  • Modelado del movimiento de insectos
  • Monitoreo del uso de camillas en hospitales
  • Personas que cambian de servicio celular
  • Monitoreo de patrones de navegación web para proveer anuncios personalizados

La propiedad de Markov

  • Las cadenas de Markov son procesos estocásticos que cumplen la propiedad de Markov.
  • Informalmente, esta propiedad establece que los estados futuros dependen únicamente del estado actual, y no de la secuencia de estados para llegar ahí. De algún modo, “trunca la memoria”.

Propiedad de Markov o de la falta de memoria

Formalmente, es una probabilidad condicional de la forma

P(Xn=xX0,,Xn1)=P(Xn=xXn1),n,x

Ejemplo de taxis en diferentes zonas de una ciudad I

Una ciudad tiene tres diferentes “zonas”, numeradas 1, 2 y 3, y los taxis operan en todas las zonas.

La probabilidad de que el próximo pasajero vaya hacia una zona particular depende de ¿Dónde abordó el taxi?

La distribución exponencial como “tiempo de vida”

La distribución exponencial es la típica caracterización de la probabilidad de los tiempos de espera (o “de vida”).

Si T es el tiempo de vida de un componente que está exponencialmente distribuido con parámetro α, entonces T tiene densidad

fT(t)={0si t<0αeαtsi t>0

La media de T es el recíproco del parámetro α, E[T]=1α.

  • La variable aleatoria T tiene la propiedad de falta de memoria
  • “No importa la antigüedad del componente, este opera como si fuera nuevo”.

Propiedad de falta de memoria de la distribución exponencial

La propiedad de falta de memoria, matemáticamente, se escribe como

P(T>t+sT>t)=P(T>s)

para tiempos t,s0. También se tiene que

P(T>t)=eαt

para t0 (porque FT(t)=1eαt).

A partir de estas definiciones, se determinan dos casos específicos.

Por ejemplo, T podría ser “el tiempo de espera de un autobús”, y s = 5 min y t = 30 min.

Primer hecho

Densidad de la variable mínima de un conjunto de variables aleatorias

  • Supóngase que T1, T2, . . ., Tn son variables aleatorias independientes, cada una distribuida exponencialmente. Supóngase que Ti tiene parámetro αi.

  • Suponga N componentes que se “conectan” (o “inician su operación conjunta”) al tiempo t = 0.

  • Ti es el tiempo de vida del i-ésimo componente.

  • Sea M el mínimo de todos los tiempos Ti ’s de los componentes. M es el tiempo en que el primer componente falla.

  • M es una variable aleatoria.

  • Sea t ≥ 0. Entonces M = min{T1, . . . , TN} es más grande que t si y solo si todo Ti>t.

P(M>t)=P(min{T1,T2,,TN}>t)=P(T1>t,T2>t,,TN>t)=eα1teα2teαNt=e(α1+α2++αN)t

M está exponencialmente distribuida con parámetro α1+α2+...+αN y valor medio 1/(α1+α2+...+αN).

Segundo hecho

Probabilidad de que un componente dado sea el que falle

Ante la pregunta, ¿Cuál es la probabilidad de que, cuando el primer fallo suceda, sea el componente j-ésimo?

La probabilidad de que entre las N variables aleatorias Ti el mínimo sea Tj está dada por la expresión

P(Tj=min{T1,T2,,TN})=αjα1+α2++αN

Prueba para dos variables aleatorias

Si T1 y T2 son independientes y distribuidos exponencialmente con parámetros respectivos α y β: fT1,T2(t1,t2)=αeαt1βeβt2,para t1,t2>0.

Con t1 y t2 correspondientes a T1 y T2:

P(T1=min{T1,T2})=P(T1<T2)=T1<T2fT1,T2(t1,t2)dt1dt2=00t2αeαt1βeβt2dt1dt2=0(1eαt2)βeβt2dt2=1βα+β=αα+β.

El proceso de nacimiento y muerte en tiempo continuo

"Nacimiento" y "muerte" es una analogía tétrica que puede interpretarse también como "aparición y desaparición" o "llegada y salida"o "llegada" y "salida" o "unión" y "separación" o "haciendo fila y listo el trámite"...

Llegada y salida de entidades

  • Considérese una “máquina” que puede estar en cualquiera de varios estados en cada instante de tiempo t0.
  • El conjunto de estados posibles, el espacio de estados S, será siempre discreto:
S={0,1,2,,N}oS={0,1,2,}
  • Al tiempo t, el estado de la máquina es denotado por Xt.

Por ejemplo, Xt podría denotar el número de animales en una poza para beber.
El estado de la máquina es el número Xt de animales al tiempo t.

Suposiciones básicas

1. Si al tiempo t la máquina está en el estado i, permanece en ese estado por un
tiempo aleatorio que es exponencialmente distribuido con parámetro Ωi.

  • El tiempo de espera promedio en el estado i es el recíproco 1/Ωi
  • Ωi depende del estado i, pero no depende de otros estados anteriores
  • El estado i pudiera ser absorbente: una vez que la máquina entra al estado i, permanecerá siempre ahí
  • En este caso, Ωi=0 y el tiempo de espera promedio es 1/Ωi

2. Cuando la máquina sale del estado i, cambia al estado i+1 o al estado i1
(habían 9 vacas, luego hay 8 si se va una, o 10 si llega otra). Sea

pi=P({próximo estado es i+1último estado es i})qi=1pi=P({próximo estado es i1último estado es i})

Entonces pi y qi dependen solamente del estado i y no de otros detalles del proceso
(tales como el tiempo t, la duración en i o el estado antes de i).

Diagrama de transición de estados en el proceso de nacimiento y muerte

El proceso estocástico {Xt}t=0 es un registro completo de los estados ocupados por la máquina para todos los tiempos t0.

Propiedad de la falta de memoria

Dado el presente estado Xt del sistema al tiempo t, los estados futuros de la máquina no
dependen de los estados pasados.

  • En particular, si el estado al tiempo t es Xt=i, entonces es completamente
    irrelevante si ha estado en el estado i por varios años o si acaba de cambiar al
    estado i, para predecir cuándo se mudará del estado i.

  • Dado que la distribución exponencial sigue la propiedad de la falta de memoria,
    la máquina se comporta como si acabara de moverse al estado i a pesar de qué tan
    largo hubiera realmente ocupado el estado i.

  • La distribución exponencial es la única distribución continua concentrada en
    [0,[ para los tiempos de espera que tiene esta propiedad.

Nótese que si Ωi=0 para el estado i, entonces los valores de pi, qi son innecesarios de especificar dado que la máquina no puede cambiar del estado i una vez en él.

Proceso de nacimiento y muerte en tiempo continuo

Síntesis

Consiste de una máquina que puede cambiar entre estados en un espacio de estados S.

  • Xt denota el estado ocupado al tiempo t para t0.

  • La máquina permanece en el estado i por un período de tiempo indeterminado
    (llamado tiempo de espera o permanencia) que es exponencialmente distribuido
    con parámetro Ωi (tiempo de espera promedio 1/Ωi).

  • Cuando la máquina cambia, cambia a los estados i+1, i1 con probabilidades
    respectivas pi, qi=1pi.

DANGER

Faltan 2 transcripciones:

  • 5_18_3_teoria_de_colas.md