Skip to content

Cadenas de Markov en tiempo discreto

Condiciones

  • Considérese un sistema que puede estar en cualquiera de varios estados.
  • El conjunto de estados es denominado el espacio de estados S y se supondrá en general que S = {0, 1, 2, ..., N}.
  • Supóngase ahora que una \emph{partícula} es libre de saltar entre los estados del espacio de estados S. Su localización al tiempo t es Xt.
  • De esta forma se tiene un proceso estocástico {Xt}t=0.
  • La localización Xt se mide solamente en los tiempos discretos t = 0, 1, 2, ....
  • X0 es la localización en el tiempo* 0*.

Suposiciones

Propiedad de Markov

Suponga que la partícula está en el estado i en el tiempo t. La probabilidad que brinque a otro estado j depende solamente de i. Matemáticamente, sea i, j, i{t-1}, ..., i0 ∈ S. Entonces para cualquier tiempo t:

P(Xt+1=jXt=i,Xt1=it1,,X0=i0)=P(Xt+1=jXt=i)

Es decir, el futuro (tiempo t+1), dado el presente (tiempo t), es independiente del pasado (tiempos t-1, ..., 0). La probabilidad anterior es la probabilidad de transición o de salto del estado i al estado j.

Las probabilidades de transición descritas son:

  • Independientes de los estados pasados una vez que se conoce donde la partícula está ahora.
  • Independientes de t el momento en que hace la transición.

Homogeneidad en Tiempo

P(Xt+1=jXt=i)=Πi,j

Πi, j es la probabilidad de transición del estado i al estado j

Cadena de Markov de tiempo discreto homogénea

Consiste de una partícula que salta en cada unidad de tiempo entre estados en un espacio de estados S. Xt denota el estado ocupado en el tiempo t para t = 0, 1, 2, ...

Si la partícula está en el estado i al tiempo t, estará en el estado j en el tiempo t+1 (sin importar los estados ocupados antes del tiempo t) con probabilidad

Πi,j=P(Xt+1=jXt=i)

Cadena de Markov de tiempo discreto

Sea S = {0, 1} con probabilidades de transición dadas por:

Π0,0=1/3Π0,1=2/3Π1,0=1/4Π1,1=3/4

Su representación gráfica es:

Cadena de Markov de tiempo discreto.

También se suele representar la misma información dada en la ecuación

Π0,0=1/3Π0,1=2/3Π1,0=1/4Π1,1=3/4

pero de forma matricial:

Π=[1/32/31/43/4]

Hay una manera estándar de escribir las probabilidades de salto Πi, j como una matriz, a la que se le llama la matriz de transición Π. El elemento en su i-ésima fila y j-ésima columna es Πi, j, la probabilidad que la partícula salte de i a j.

Π=[Π0,0Π0,1Π0,2Π0,NΠ1,0Π1,1Π1,2Π1,NΠN,0ΠN,1ΠN,2ΠN,N]

Nótese que la i-esima fila de la matriz Π muestra las probabilidades de salto del estado i, la j-ésima columna muestra las probabilidades de salto al estado j.

Matriz de transición

Sea Π una matriz de transición de una cadena de Markov. Entonces,

  • 0 \leq Πi, j \leq 1 para todo i, j en el espacio de estados S.
  • Π tiene filas que suman 1:
j=0NΠi,j=j=0NP(Xt+1=jXt=i)=1

Cadena de Markov de tres estados

Cadena de Markov de tiempo discreto

En una cadena de Markov hay tres estados: S = {0, 1, 2}. Del estado 0 la partícula salta a los estados 1 o 2 con una idéntica probabilidad de 1/2. Del estado 2, la partícula debe saltar al estado 1. El estado 1 es absorbente: una vez que la partícula entre al estado 1, no puede salirse. Dibuje el diagrama y escriba la matriz de transición.

Π=[01/21/2010010]

Su representación gráfica es:

Cadena de Markov de tiempo discreto.

Estado absorbente

El estado i es absorbente si Πi, j = 1.

Interpretado como ``la probabilidad de pasar del estado i al mismo estado i es del 100 %''.

Un paseo aleatorio sobre S = {0, 1, 2, ..., N}

De cualquiera de los estados interiores 1, 2, ..., N-1, la partícula salta a la derecha al estado i+1 con probabilidad p y hacia la izquierda al estado i-1 con probabilidad q = 1 - p. Es decir, para 1iN1,

Πi,i+1=p,Πi,i1=q,Πi,j=0 para ji±1

¿Cuál es la matriz de transición y el diagrama de saltos?

Esto corresponde al siguiente juego: tire una moneda; si sale escudo, entonces gana un colón; si sale corona, entonces pierde un colón. En cada tiro se salta al estado i+1 con probabilidad p o al estado i-1 con probabilidad q, con i colones al presente. A este ``juego'' se le conoce como la ruina del apostador.

Pueden considerarse tres casos diferentes acerca de la conducta de la partícula en los estados frontera 0 y N.

Caso 1: Ambos estados frontera podrían ser absorbentes, en cuyo caso se tendría,

Π0,0=1ΠN,N=1Π=[10000q0p000q0p00000q0p00001]

Esto corresponde a las situaciones en que el juego acabó dado que se quedó sin dinero o si se ha ganado el dinero de los oponentes.

Caso 2: Ambos estados frontera podrían ser reflectores, en cuyo caso se tendría,

Π0,1=1ΠN,N1=1

Esto corresponde al caso cuando mi oponente me da uno de sus colones cuando quedo con los bolsillos vacíos, o inversamente. Y que siga el juego.

Caso 3: Los estados frontera podrían ser parcialmente reflectores, en cuyo caso se tendría,

Π0,0=r,Π0,1=1r,ΠN,N=s,ΠN,N1=1s

La correspondiente matriz de transición estaría dada por

Π=[r1r0000q0p0000q0p000000q0p000001ss]

El caso 3 incluye los dos casos anteriores para valores particulares de r y s.

Cadena de Markov de tiempo discreto.

Proceso de renovación

Considérese un componente cuya edad puede ser 0 o 1 o 2 ...

  • Edad 0 significa acabado de instalar. Supóngase que no importa qué tan viejo el componente es, se estropeará durante el próximo intervalo de tiempo con probabilidad q o continuará operando con probabilidad p = 1 - q. Así, el componente sigue la propiedad de la carencia de memoria.
  • El espacio de estados es S = {0, 1, 2, ...} y el estado del sistema es la edad del componente instalado. Suponga que tan pronto como el componente se averíe, es reemplazado instantáneamente y entonces el estado del sistema se vuelve cero. La transición del estado 0 al estado 0 ocurre si el componente recién instalado se avería inmediatamente.
Π=[qp00q0p000q0p0]
  • Véase que el espacio de estados S, en este caso, si bien discreto, tiene infinitamente muchos estados.
  • Este modelo recibe también el nombre de modelo de nacimiento o de desastre. Algunas aplicaciones son evidentes: tiempos de vida de componentes. Hay una que no es tan obvia: las noticias se apilan en una pizarra de avisos a una razón más o menos constante hasta que alguien decide tirarlas todas.
  • El estado del sistema es el número de días desde la última vez que la pizarra fue limpiada. Si la limpieza de la pizarra se hace aleatoriamente, independiente de cuantas noticias haya o del tiempo desde la última limpieza, la pizarra será limpiada en la próxima unidad de tiempo con una probabilidad constante q.

La matriz de transición de orden t

La matriz de transición Π muestra las probabilidades de transición Πi,j. Supóngase que se necesita encontrar probabilidades tales como:

P(Xt+3=jXt=i)

de que la partícula estará en estado j tres saltos desde el estado actual i.

Si las probabilidades de transición de un paso Πi,j son las entradas de la matriz Π, ¿cómo puede encontrarse las probabilidades de tres pasos, y más generalmente, las probabilidades de t pasos?

Matriz de transición de orden t

La matriz de transición de orden t es Πt, cuya entrada (i,j) es:

Πi,jt=P(Xt=jX0=i)

que es la probabilidad de saltar de i a j en t pasos.

La homogeneidad en el tiempo (el hecho de que las probabilidades de transición no dependan de t) implica que, no obstante el tiempo μ0:

P(Xt+μ=jXμ=i)=Πi,jt

O sea, las probabilidades de transición de t pasos dependen solamente de la diferencia de tiempo.

Visualización de la transición de estados

Un algoritmo general se necesita para hallar la matriz de transición Πt de orden t para cualquier matriz Π de una cadena de Markov dada.

Cadena de Markov de tiempo discreto

Para hallar la matriz de transición de orden t+1 a partir de la de orden t, se usan las suposiciones de Markov básicas.

  • Supóngase que la partícula empieza en estado i en el tiempo 0, es decir, X0=i.
  • Para que la partícula esté en el estado j en el tiempo t+1, debe haber atravesado algún estado k en el tiempo intermedio t, es decir, X0=iXt=kXt+1=j.

El objetivo es encontrar una expresión para Πi,jt+1.

Πi,jt+1=P(Xt+1=jX0=i)=k=0NP(Xt+1=j y Xt=kX0=i)=k=0NP(Xt+1=jXt=k y X0=i)P(Xt=kX0=i)=k=0NP(Xt+1=jXt=k)P(Xt=kX0=i)=k=0NΠi,ktΠk,j
  • La primera igualdad es por definición de la matriz de transición de orden t.
  • La segunda igualdad viene de particionar donde la partícula estaba en el tiempo t.
  • La tercera igualdad viene de la regla de probabilidad condicional:P(ABC)=P(ABC)P(BC)
  • La cuarta igualdad usa la propiedad de Markov, donde la probabilidad de transición solo depende del estado anterior.
  • La quinta igualdad se obtiene por definición de las matrices de transición y por la propiedad de homogeneidad.

WARNING

Falta la transcripción de 5_20_3_markov_discreto.md