Page 52 - flip-procesos
P. 52

✐                                                                                          ✐

                             “ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 44 — #50
           ✐                                                                                                      ✐





                          44                                             3. Cadenas de Markov







                                                        C i    C j

                                                                            S

                                               Partici´on de un espacio de estados
                                                  en clases de comunicaci´on

                                                         Figura 3.10


                          3 consigo mismo, sin embargo, por definici´on p 33 0    1,y ello hace que
                          esta clase de ´unicamente un estado sea de comunicaci´on. Observe que estas
                          clases de comunicaci´on conforman una partici´on del espacio de estados.



                                                                        C 0           C 1

                                       1    0    0  0                 0             1
                                      1 2   0   1 20
                               P
                                       0   1 21 20
                                      1 2   0   1 20
                                                                      3             2
                                                                        C 3

                                                         Figura 3.11



                          El estado i de una cadena de Markov se llama absorbente si p ii 1  1. Por
                          ejemplo, el estado 0 de la cadena de la Figura 3.11 es absorbente.

                          Definici´on 3.3 Se dice que una cadena de Markov es irreducible si todos
                          los estados se comunican entre s´ı.

                          En otras palabras, una cadena de Markov es irreducible si existe s´olo una
                          clase de comunicaci´on, es decir, si la partici´on generada por la relaci´on de
                          comunicaci´on es trivial. Por ejemplo, la cadena de racha de ´exitos o la cadena
                          de la caminata aleatoria son cadenas irreducibles, pues todos los estados se








           ✐                                                                                                      ✐

                 ✐                                                                                          ✐
   47   48   49   50   51   52   53   54   55   56   57