Page 154 - riesgo2012
P. 154
144 6. Procesos estoc´ asticos
X t ω
i 4
i 2
i 1
i 3
t
T i 1 T i 2 T i 3 T i 4
Figura 6.6
proceso puede entonces escribirse en la forma siguiente:
i 1 si 0 t W 1 ,
i 2 si W 1 t W 2 ,
X t i 3 si W 2 t W 3 ,
. . .
A un proceso de estas caracter´ısticas se llama proceso de saltos, y resulta
ser una buena versi´on continua de las cadenas de Markov a tiempo discreto,
pero es necesario requerir de algunas otras condiciones. Supondremos que
l´ım W n c.s.
n
y ello garantiza que para todo t 0, el valor de X t es finito, c.s. Por otro
lado, sin p´erdida de generalidad supondremos que el espacio de estados es
el conjunto S 0, 1,... y que el tiempo de estancia asociado el estado
i es la variable aleatoria T i , la cual supondremos positiva con funci´on de
distribuci´on F i t . Como en el caso de cadenas a tiempo discreto, se deno-
tar´a por p ij a la probabilidad de que la cadena pase del estado i al estado
j al efectuar un salto. Adicionalmente impondremos la condici´on p ii 0, y
con ello se imposibilita que la cadena salte al mismo estado de partida. Las
probabilidades de saltos deben entonces satisfacer las siguientes condiciones:
a) p ij 0.