Page 176 - flip-procesos
P. 176
✐ ✐
“ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 168 — #174
✐ ✐
168 5. Cadenas de Markov a tiempo continuo
Tiempos de primera visita
Para cualesquiera estados i y j,se define
τ ij ´ınf t 0: X t j , cuando X 0 i.
El tiempo medio de primera visita es entonces µ ij E τ ij .Cuando los
estados i y j coinciden se escribe τ i ,y µ i E τ i respectivamente. A µ i se
le llama tiempo medio de recurrencia.
Recurrencia y transitoriedad
Se dice que el estado i es transitorio si, partiendo de i,con probabilidad
uno el conjunto de tiempos t 0: X t i es acotado. En cambio, se
dice que es recurrente si, partiendo de i,con probabilidad uno elconjunto
t 0: X t i es no acotado. Cuando E τ i se dice que el estado i es
recurrente nulo, y cuando E τ i se dice que es recurrente positivo.
Distribuciones estacionarias
Sea P t la matriz de probabilidades de transici´on de una cadena de Mar-
kov a tiempo continuo. Se dice que una distribuci´on de probabilidad π
π 0 , π 1 ,... sobre el espacio de estados es estacionaria si para cualquier t 0,
π P t π.
Expl´ıcitamente, si para cualquier t 0, i π i p ij t π j .Por lo tanto, si
X 0 tiene como distribuci´on inicial una distribuci´on estacionaria π,entonces
P X t j i π i p ij t π j ,es decir,la variable X t tiene la misma dis-
tribuci´on de probabilidad π para cualquier valor de t.El siguiente resultado,
cuya demostraci´on omitiremos, plantea una forma alternativa de encontrar
una posible distribuci´on estacionaria para una cadena de Markov a tiempo
continuo.
Proposici´on 5.8 La distribuci´on π es estacionaria para la cadena con ge-
nerador infinitesimal G si y s´olo si π G 0.
Ejemplo 5.13 Considere la cadena de Markov de dos estados cuyo gene-
rador infinitesimal est´a dado por la matriz
λ λ
G .
µ µ
✐ ✐
✐ ✐