Page 144 - riesgo2012
P. 144
134 6. Procesos estoc´ asticos
tas de procesos a tiempo continuo m´as complejos. En el siguiente cap´ıtulo
estudiaremos algunas caracter´ısticas de un proceso a tiempodiscretomuy
similar a una caminata aleatoria que representar´a el balance de una asegu-
radora. Para las caminatas aleatorias se pueden plantear diversos problemas
matem´aticos, por ejemplo, encontrar la distribuci´on de la variable X n para
cualquier valor de n, o encontrar la probabilidad de que en alg´un momento
la caminata regrese a su posici´on de origen, o que nunca tome valores nega-
tivos, o alguna otra condici´on interesante sobre sus trayectorias. En el texto
de Norris [26] o Resnick [29] se puede encontrar la soluci´on a algunos de estos
problemas, as´ı como un estudio m´as completo sobre caminatas aleatorias.
6.4. Cadenas de Markov
Este tipo de procesos es tambi´en de amplia aplicaci´on y se cuenta con una
teor´ıa matem´atica bastante desarrollada.
Definici´on 6.5 Una cadena de Markov es un proceso estoc´astico a tiem-
po discreto X n : n 0, 1,... con espacio de estados discreto y tal que
satisface la propiedad de Markov, esto es, para cualquier entero n 0 y
cualesquiera estados x 0 ,x 1 ,... ,x n 1 se cumple la identidad
P X n 1 x n 1 X n x n ,... ,X 1 x 1 ,X 0 x 0
P X n 1 x n 1 X n x n .
A las probabilidades condicionales mencionadas en la definici´on anterior se
les llama probabilidades de transici´on del tiempo n al tiempo n 1, y se
n, n 1 . Adicionalmente, se dice que la cadena es
les denota por p x n,x n 1
estacionaria u homog´enea en el tiempo si estas probabilidades no dependen
expl´ıcitamente de los tiempos particulares n y n 1, sino ´unicamente de los
estados involucrados. De esta forma, si de manera general se considera la
probabilidad de transici´on del estado i al estado j de una unidad de tiempo
cualquiera a la siguiente unidad de tiempo, la probabilidad de transici´on del
1
primer estado al segundo se escribe como p ij ,o p ij 1 , o tambi´en como p ,
ij