Page 106 - flip-procesos
P. 106

✐                                                                                          ✐

                             “ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 98 — #104
           ✐                                                                                                      ✐





                          98                                             3. Cadenas de Markov


                                  a) p ij n  p ij 1 p jj n  1 .

                                  b) p ij n  1   p ji n .
                            33. Demuestre que:

                                  a) p ii n p ii m  p ii n  m   p ii n p ii m  1   p ii n .


                                  b) sup p ij n    f ij     p ij n .
                                      n
                                                        n 1
                                  c) i   j si, y s´olo si, f ij  0.
                                  d) i   j si, y s´olo si, f ij f ji  0.


                                  e)    p ij n   f ij   p jj n   1 .
                                     n 1             n 1

                                Cadenas de Markov

                            34. Sea ξ 1 , ξ 2 ,... una sucesi´on de variables aleatorias independientes con
                                valores en el conjunto 0, 1,... ,y con id´entica distribuci´on dada por
                                las probabilidades a 0 ,a 1 ,... Determine si el proceso X n : n  1
                                dado por X n    m´ın ξ 1 ,... , ξ n es una cadena de Markov. En caso
                                afirmativo encuentre la matriz de probabilidades de transici´on.

                            35. Para la cadena de Markov de dos estados, compruebe que:

                                  a) P X 0   0,X 1   1,X 2  0    ab p 0 .

                                  b) P X 0   0,X 2   1    ab    1   a a p 0 .
                                  c) P X 2   0     1   a  2  ab p 0   1   b b  b 1   a p 1 .
                            36. Para la cadena de Markov de dos estados con distribuci´on inicial
                                 π 0 , π 1 ,use inducci´on sobre n para demostrar que para a  b  0,
                                                    b             b
                                                                                n
                                             0                         1   a  b .
                                  a) P X n                 π 0
                                                  a   b         a   b
                                                    a             a             n
                                  b) P X n   1             π 1         1   a  b .
                                                  a   b         a   b
                                ¿Cu´al es el l´ımite de esta distribuci´on cuando n  ?








           ✐                                                                                                      ✐

                 ✐                                                                                          ✐
   101   102   103   104   105   106   107   108   109   110   111