Page 157 - flip-procesos
P. 157

✐                                                                                          ✐

                            “ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 149 — #155
           ✐                                                                                                      ✐





                                                                                               149


                          Observe que en un proceso de Markov a tiempo continuo las probabilidades
                          de saltos p ij ylas probabilidades de transici´on p ij t representan aspectos
                          distintos del proceso. Las primeras son probabilidades de cambio al estado
                          j cuando el proceso se encuentra en el estado i ytiene un salto, mientras
                          que las segundas son probabilidades de encontrar al proceso en el estado j,
                          partiendo de i,al t´ermino de un intervalo de tiempo de longitud t.Observe
                          adem´as que un proceso de Markov a tiempo continuo queda completamente
                          especificado por los siguientes tres elementos: una distribuci´on de proba-
                          bilidad inicial en el espacio de estados, el conjunto de los par´ametros no
                          negativos λ i ,y las probabilidades de saltos p ij .En las siguientes secciones
                          estudiaremos algunas propiedades generales de los procesosarriba descritos
                          yrevisaremos tambi´en algunos modelos particulares.

                          Ejemplo 5.1 (Proceso de Poisson) El proceso de Poisson es una cadena
                          de Markov a tiempo continuo que empieza en cero, es decir, la distribuci´on
                          de probabilidad inicial tiene el valor uno en el estado cero, los tiempos de
                          estancia son exponenciales de par´ametro λ ylasprobabilidades de saltos de
                          un estado a otro son

                                                          1 si j    i  1,
                                                  p ij
                                                          0 si j    i  1.




                                                   X t ω

                                               1



                                                                          t
                                                   exp λ
                                                         Figura 5.2



                          Ejemplo 5.2 (Cadena de primera ocurrencia) Sea X t : t           0 una
                          cadena de Markov a tiempo continuo con espacio de estados 0, 1 .Suponga
                          que X 0     0 yque el proceso cambia al estado 1 despu´es de un tiempo
                          aleatorio con distribuci´on exp λ ,y permanece all´ıel resto del tiempo. Una








           ✐                                                                                                      ✐

                 ✐                                                                                          ✐
   152   153   154   155   156   157   158   159   160   161   162