Page 52 - flip-procesos
P. 52
✐ ✐
“ProcesosMathBookFC” — 2012/2/2 — 10:58 — page 44 — #50
✐ ✐
44 3. Cadenas de Markov
C i C j
S
Partici´on de un espacio de estados
en clases de comunicaci´on
Figura 3.10
3 consigo mismo, sin embargo, por definici´on p 33 0 1,y ello hace que
esta clase de ´unicamente un estado sea de comunicaci´on. Observe que estas
clases de comunicaci´on conforman una partici´on del espacio de estados.
C 0 C 1
1 0 0 0 0 1
1 2 0 1 20
P
0 1 21 20
1 2 0 1 20
3 2
C 3
Figura 3.11
El estado i de una cadena de Markov se llama absorbente si p ii 1 1. Por
ejemplo, el estado 0 de la cadena de la Figura 3.11 es absorbente.
Definici´on 3.3 Se dice que una cadena de Markov es irreducible si todos
los estados se comunican entre s´ı.
En otras palabras, una cadena de Markov es irreducible si existe s´olo una
clase de comunicaci´on, es decir, si la partici´on generada por la relaci´on de
comunicaci´on es trivial. Por ejemplo, la cadena de racha de ´exitos o la cadena
de la caminata aleatoria son cadenas irreducibles, pues todos los estados se
✐ ✐
✐ ✐