Page 145 - riesgo2012
P. 145
6.4. Cadenas de Markov 135
es decir, sin importar el valor del entero n:
p ij P X n j X n 1 i .
A estas probabilidades se les llama probabilidades de transici´on en un paso.
En general se considera como espacio de estados para una cadena de Markov
el conjunto discreto 0, 1,... o alg´un subconjunto finito de ´el. Haciendo
variar los valores de los ´ındices i y j en este espacio de estados se forma la
matriz de probabilidades de transici´on en un paso:
p 00 p 01 p 02
p 10 p 11 p 12
P .
p 20 p 21 p 22
. . . . . . . . .
En la entrada i, j de esta matriz aparece la probabilidad p ij . As´ı, todas las
entradas son n´umeros no negativos y la suma de ellos en cada rengl´on es 1. A
tales matrices cuadradas se les llama matrices estoc´asticas. Rec´ıprocamente,
a partir de una matriz con estas caracter´ısticas junto con una distribuci´on
inicial para X 0 , se puede construir una cadena de Markov. Es por ello que
a una matriz estoc´astica tambi´en se le puede llamar cadena de Markov.
La cadena puede iniciar en un estado particular o en cualquiera de ellos
de manera aleatoria por medio de una distribuci´on de probabilidad inicial
π 0 , π 1 ,... .
Probabilidades de transici´on en n pasos
Uno de los problemas que se pueden plantear para las cadenas deMarkov es
el de encontrar las probabilidades de transici´on de un estado a otro estado
cualquiera en n pasos sucesivos. Estas probabilidades se definen como sigue
p ij n P X m n j X m i .
Por la estacionariedad de las probabilidades de transici´on en un paso, el lado
derecho de esta identidad no depende realmente del sub´ındice m. La solu-
ci´on al problema planteado se resuelve a trav´es de la igualdad de Chapman-
Kolmogorov, la cual establece que para cualesquiera estados i y j y cua-
lesquiera tiempos 0 r n,
p ij n p ik r p kj n r .
k