Page 177 - flip-procesos
P. 177
✐ ✐
“ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 169 — #175
✐ ✐
5.6. Ejercicios 169
Se busca una distribuci´on estacionaria π π 0 , π 1 para esta cadena y para
ello se hace uso de la ecuaci´on π G 0,junto con la condici´on π 0 π 1 1.
Esto lleva a la soluci´on
µ λ
π 0 , π 1 , .
λ µ λ µ
Puede comprobarse adem´as que las probabilidades de transici´on mostradas
en el Ejemplo 5.3 convergen a esta distribuci´on estacionaria, es decir,
p 00 t p 01 t π 0 π 1
l´ım .
t p 10 t p 11 t π 0 π 1
Cadena a tiempo discreto asociada
Toda cadena de Markov a tiempo continuo X t : t 0 tiene asociada una
cadena a tiempo discreto que denotaremos por el mismo s´ımbolo X n : n
0, 1,... ,y que est´a dada por la primera pero observada en los tiempos en
donde se efect´uan los saltos. Algunas caracter´ısticas de la cadena a tiempo
discreto se trasladan a su versi´on continua. Inversamente,a partir de una
cadena a tiempo discreto puede construirse su versi´on continua en el tiempo
tomando tiempos exponenciales independientes entre salto ysalto.
Notas y referencias.La primera parte de la exposici´on que hemos pre-
sentado est´a basada en el texto de Hoel, Port y Stone [14]. Unaexposici´on
m´as completa del tema de cadenas de Markov a tiempo continuo puede
encontrarse en Basu [1], Karlin y Taylor [17] o Stirzaker [34].
5.6. Ejercicios
Cadenas de Markov a tiempo continuo
142. Para la cadena de Markov de dos estados, demuestre que para cual-
quier t 0,
µ λ
p 00 t e λ µ t .
λ µ λ µ
✐ ✐
✐ ✐