Page 155 - riesgo2012
P. 155

6.6. Cadenas de Markov a tiempo continuo                             145



                             b) p ii  0.
                             c)    p ij  1.
                                 j
                          En forma de matriz, las probabilidades de saltos constituyen una matriz
                          estoc´astica de la siguiente forma:

                                                         0   p 01 p 02
                                                             0
                                                        p 10     p 12
                                                P                           .
                                                        p 20 p 21  0
                                                         . . .  . . .  . . .

                                                                                 ,... son indepen-
                          Supondremos adem´as que los tiempos de estancia T i 1  ,T i 2
                          dientes entre s´ı, y tambi´en son independientes del mecanismo mediante el
                          cual se escoge el estado j al cual la cadena salta despu´es de estar en cualquier
                          otro estado i. M´as a´un, supondremos que cada variable T i es finita con pro-
                          babilidad 1, o bien, es infinita con probabilidad 1. En el primer caso se dice
                          que el estado i es no absorbente, y en el segundo caso que es absorbente. El
                                                se interpreta en el sentido de que el proceso deja de
                          hecho de que T i
                          saltar y permanece en el estado i el resto del tiempo, es decir, el estado i
                          es absorbente. Por lo tanto, s´olo hay dos tipos de estados: absorbentes o no
                          absorbentes. En otras palabras, con probabilidad uno el tiempo de estancia
                          es finito o con probabilidad uno es infinito. Por otra parte, un resultado no
                          trivial establece que un proceso de las caracter´ısticas arriba especificadas
                          satisface la propiedad de Markov si y s´olo si, los tiempos de estancia en los
                                                                               ´
                          estados no absorbentes tienen distribuci´on exponencial. Este es un resultado
                          importante cuya demostraci´on omitiremos y que simplifica dr´asticamente
                          el modelo general planteado. Como deseamos estudiar procesos de saltos
                          que cumplan la propiedad de Markov, pues tal propiedad ayuda a calcular
                          probabilidades con cierta facilidad, tendremos que suponer entonces que el
                          tiempo de estancia en un estado no absorbente i tiene distribuci´on exp λ i ,

                          con λ i  0, es decir,
                                                F i t  1   e  λ i t  para t  0.


                          Observe que puede considerarse que λ i     0 en el caso cuando T i     .
                          La propiedad de Markov que consideraremos tiene la siguiente forma: para
   150   151   152   153   154   155   156   157   158   159   160