Page 157 - riesgo2012
P. 157
6.6. Cadenas de Markov a tiempo continuo 147
distintos del proceso. Las primeras son probabilidades de cambio al estado
j cuando el proceso se encuentra en el estado i y el proceso tiene un salto,
mientras que las segundas son probabilidades de encontrar al proceso en el
estado j, partiendo de i, al t´ermino de un intervalo de tiempo de longitud t.
Observe adem´as que un proceso de Markov a tiempo continuo queda comple-
tamente especificado por los siguientes tres elementos: una distribuci´on de
probabilidad inicial en el espacio de estados, el conjunto de los par´ametros
no negativos λ i , y las probabilidades de saltos p ij .
Ejemplo 6.2 (Proceso de Poisson) El proceso de Poisson es una cadena
de Markov a tiempo continuo que empieza en cero, es decir, la distribuci´on
de probabilidad inicial tiene el valor 1 en el estado cero. Los tiempos de
estancia son exponenciales de par´ametro λ ylasprobabilidades de saltos de
un estado a otro son
1 si j i 1,
p ij
0 si j i 1.
Las probabilidades de transici´on son
λt λt j i
e si j i,
p ij t j i !
0 otro caso.
Ejemplo 6.3 (Cadena de dos estados) Considere el proceso X t : t 0
con espacio de estados 0, 1 y definido por la siguiente din´amica: cuando
el proceso entra al estado 0 permanece en ´el un tiempo exp λ yluego va
al estado 1,entonces permanece en el estado 1 un tiempo exp µ y despu´es
regresa a 0,yas´ı sucesivamente. Se postula adem´as que los tiempos de
estancia en cada estado son variables aleatorias independientes. Para este
proceso pueden encontrarse expl´ıcitamente las probabilidades de transici´on
p ij t .Puede demostrarse que paracualquier t 0,
µ λ λ µ t
p 00 t e .
λ µ λ µ