Page 156 - flip-procesos
P. 156

✐                                                                                          ✐

                            “ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 148 — #154
           ✐                                                                                                      ✐





                          148                       5. Cadenas de Markov a tiempo continuo



                          que el t´ermino p x t significa P X t   x t .La propiedad de Markov que
                          consideraremos tiene la siguiente forma: para cualesquieratiempos 0  t 1
                                     t n ,
                          t 2
                                                                               .
                                             p x t n  x t 1  ,... ,x t n 1  p x t n  x t n 1
                          Observe que no estamos suponiendo que se conoce la historia del proceso en
                          todo el pasado a tiempo continuo, sino ´unicamente en una colecci´on arbi-
                          traria pero finita de tiempos pasados t 1 ,... ,t n 1 .Supondremos nuevamente
                          que estas probabilidades de transici´on son estacionarias en el tiempo, esto
                          significa que para cada s   0y t    0, la probabilidad P X t s  j X s  i
                          es id´entica a P X t  j X 0  i ,es decir, no hay dependencia del valor de s.
                          Esta probabilidad se escribe de manera breve mediante la expresi´on p ij t ,
                          para i y j enteros no negativos. Es decir,

                                      p ij t  P X t s   j X s   i   P X t   j X 0   i .

                          En particular para t   0se define nuevamente p ij 0 como la funci´on delta
                          de Kronecker, es decir,

                                                                1si i    j,
                                                p ij 0   δ ij
                                                                0si i    j.

                          Haciendo variar los ´ındices i y j en el espacio de estados se obtiene la matriz
                          de probabilidades de transici´on al tiempo t,que denotaremos por P t yen
                          ocasiones se escribe tambi´en como P t :

                                                             p 00 t  p 01 t

                                           P t   p ij t      p 10 t  p 11 t      .
                                                               . . .  . . .

                          Puede demostrarse que cuando el espacio de estados es finito, esta matriz
                          es siempre estoc´astica, es decir, los elementos de cada rengl´on suman uno.
                          Sin embargo, existen ejemplos en el caso de espacios de estados infinito en
                          donde no se cumple tal propiedad, es decir, en general,  j  p ij t  1. Esta
                          es una diferencia inesperada respecto del modelo a tiempo discreto.

                          Definici´on 5.1 Aun proceso de saltos con las caracter´ısticas y postulados
                          arriba se˜nalados se le llama cadena de Markov a tiempo continuo.








           ✐                                                                                                      ✐

                 ✐                                                                                          ✐
   151   152   153   154   155   156   157   158   159   160   161