Page 147 - riesgo2012
P. 147
6.4. Cadenas de Markov 137
Definici´on 6.6 Se dice que el estado i de una cadena de Markov es ab-
sorbente si
p ii 1.
En caso contrario se dice que el estado es no absorbente.
Esto quiere decir que si en alg´un momento la cadena visita un estado ab-
sorbente, el proceso permanece en dicho estado el resto del tiempo. Con-
sideremos entonces una cadena de Markov X n : n 0 con espacio de
estados 0, 1, 2,... ,k , en donde el estado 0 es absorbente y los estados
1, 2,... ,k son no absorbentes. Esta cadena tiene una matriz de probabilida-
des de transici´on en un paso compuesta por cuatro bloques de la siguiente
forma:
1 0
P ,
b T B
en donde 0 es el vector rengl´on 0, 0,... , 0 de dimensi´on k, b es el vector
reng´on b 1 ,b 2 ,... ,b k con no todas sus entradas cero en donde el super´ındice
T indica transpuesta y B es una matriz cuadrada de k k tal que la matriz
completa es estoc´astica. Esta ´ultima condici´on se puede expresar mediante
la ecuaci´on
T
b T Be T e , (6.1)
en donde e representa el vector rengl´on 1, 1,... , 1 de dimensi´on k.La
idea es dejar que la cadena inicie en alguno de los estados no absorbentes
1, 2,... ,k o bien a trav´es de una distribuci´on inicial π π 1 , π 2 ,... , π k
sobre esos estados y observar el momento aleatorio τ (posiblemente infinito)
en el que el proceso es atrapado en el estado absorbente 0. Esta variable
aleatoria resulta ser un tiempo de paro y a la distribuci´on de probabilidad
de este tiempo de espera hasta la absorci´on se le llama distribuci´on tipo fase.
M´as generalmente, tomaremos como distribuci´on de probabilidad inicial al
vector
π π 0 , π 1 ,... , π k ,
en donde π 0 es la probabilidad de que la cadena inicie en el estado absorbente