Page 94 - flip-procesos
P. 94

✐                                                                                          ✐

                             “ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 86 — #92
           ✐                                                                                                      ✐





                          86                                             3. Cadenas de Markov



                          Entonces las probabilidades l´ımite π j  l´ım p ij n existen, est´an dadas por
                                                                n
                          π j   1 µ j ,y constituyen la ´unica soluci´on al sistema de ecuaciones

                                                       π j      π i p ij ,                  (3.15)
                                                             i

                                                       0,y          1.
                          sujeto a las condiciones π j       j  π j
                          Demostraci´on. Como la cadena es irreducible y recurrente positiva, tiene
                          una ´unica distribuci´on estacionaria dada por π j  1 µ j .Es decir, es la ´unica
                          soluci´on al sistema de ecuaciones π  πP,con π j  0y    π j  1. Adem´as,
                                                                                 j
                          por la aperiodicidad, p ij n  π j .                                   !



                          3.15.     Cadenas regulares


                          Las cadenas de Markov regulares son cadenas finitas que cumplen la pro-
                          piedad de que a partir de un cierto momento, con probabilidad positiva se
                          puede pasar de un estado a otro cualquiera en un paso. Demostraremos que
                          para este tipo de cadenas siempre existe la distribuci´on l´ımite.

                          Definici´on 3.15 Se dice que una cadena finita o su matriz de probabilida-
                          des de transici´on es regular si existe un entero natural n tal que p ij n  0,
                          para cualesquiera estados i y j.

                          En palabras, una cadena de Markov finita es regular si alguna potencia de
                          su matriz de probabilidades de transici´on tiene todas sus entradas estricta-
                          mente positivas. Otra forma de definir a una cadena regular es atrav´es del
                          siguiente resultado.

                          Proposici´on 3.20 Una matriz estoc´astica es regular si, y s´olo si, es finita,
                          irreducible y aperi´odica.

                          Demostraci´on.      Si la matriz es regular, entonces claramente es finita,
                          irreducible y aperi´odica. Rec´ıprocamente, por la irreducibilidad, para cua-
                          lesquiera dos estados i y j,existe un entero m tal que p ij m  0. Entonces
                          existe un entero N tal que p ij m  nd j      0, para cada n    N.Como
                          d j    1y siendola matriz finita, esto implica la regularidad.         !








           ✐                                                                                                      ✐

                 ✐                                                                                          ✐
   89   90   91   92   93   94   95   96   97   98   99