Page 155 - riesgo2012
P. 155
6.6. Cadenas de Markov a tiempo continuo 145
b) p ii 0.
c) p ij 1.
j
En forma de matriz, las probabilidades de saltos constituyen una matriz
estoc´astica de la siguiente forma:
0 p 01 p 02
0
p 10 p 12
P .
p 20 p 21 0
. . . . . . . . .
,... son indepen-
Supondremos adem´as que los tiempos de estancia T i 1 ,T i 2
dientes entre s´ı, y tambi´en son independientes del mecanismo mediante el
cual se escoge el estado j al cual la cadena salta despu´es de estar en cualquier
otro estado i. M´as a´un, supondremos que cada variable T i es finita con pro-
babilidad 1, o bien, es infinita con probabilidad 1. En el primer caso se dice
que el estado i es no absorbente, y en el segundo caso que es absorbente. El
se interpreta en el sentido de que el proceso deja de
hecho de que T i
saltar y permanece en el estado i el resto del tiempo, es decir, el estado i
es absorbente. Por lo tanto, s´olo hay dos tipos de estados: absorbentes o no
absorbentes. En otras palabras, con probabilidad uno el tiempo de estancia
es finito o con probabilidad uno es infinito. Por otra parte, un resultado no
trivial establece que un proceso de las caracter´ısticas arriba especificadas
satisface la propiedad de Markov si y s´olo si, los tiempos de estancia en los
´
estados no absorbentes tienen distribuci´on exponencial. Este es un resultado
importante cuya demostraci´on omitiremos y que simplifica dr´asticamente
el modelo general planteado. Como deseamos estudiar procesos de saltos
que cumplan la propiedad de Markov, pues tal propiedad ayuda a calcular
probabilidades con cierta facilidad, tendremos que suponer entonces que el
tiempo de estancia en un estado no absorbente i tiene distribuci´on exp λ i ,
con λ i 0, es decir,
F i t 1 e λ i t para t 0.
Observe que puede considerarse que λ i 0 en el caso cuando T i .
La propiedad de Markov que consideraremos tiene la siguiente forma: para