Este es un primer curso sobre procesos estocásticos
integrado por una
colección de videos. Está dirigido
a estudiantes universitarios de las carreras de matemáticas,
actuaría, matemáticas aplicadas
y otras carreras científicas similares. En estos videos se cubren
temas del curso Procesos Estocásticos I
de la Licenciatura en Actuaría
que se ofrece en la Facultad de Ciencias de la UNAM.
Este trabajo fue elaborado
con apoyo del proyecto PAPROTUL 1001 (2014)
dentro del
Programa de Apoyo Financiero para el Desarrollo
y Fortalecimiento de los Proyectos Unitarios
de
Toda la UNAM en Línea
de la
Universidad Nacional Autónoma
de México . Los derechos patrimoniales pertenecen a la UNAM.
Introducción
Ver
¿Qué es un proceso estocástico?
Ver
Algunos tipos de procesos estocásticos
Cadenas de Markov: definición y ejemplos
Ver
¿Qué es una cadena de Markov?
Ver
Matrices estocásticas
Ver
Ejemplo: cadena de dos estados
Ver
Ejemplo: cadena de v.a.s independientes
Ver
Ejemplo: cadena de racha de éxitos
Ver
Ejemplo: cadena de la caminata aleatoria
Ver
Ejemplo: cadena del jugador
Ver
Ejemplo: cadena de Ehrenfest
Ver
Ejemplo: cadena de ramificación
Ver
Ejemplo: cadena de la fila de espera
Ver
Ejemplo: cadena de inventarios
Cadenas de Markov: comunicación y periodo
Ver
Ecuación de Chapman-Kolmogorov
Ver
Comunicación
Ver
Periodo: definición
Ver
Periodo: propiedades
Cadenas de Markov: recurrencia y transitoriedad
Ver
Probabilidades de primeras visitas
Ver
Recurrencia y transitoriedad: definición
Ver
Recurrencia y transitoriedad: criterios
Ver
Recurrencia y transitoriedad: resultados
Ver
Tiempo medio de recurrencia
Ver
Clases cerradas
Ver
Número de visitas
Ver
La propiedad fuerte de Markov
Ver
Teorema ergódico para cadenas de Markov
Ver
Recurrencia positiva y nula
Cadenas de Markov: distribuciones estacionarias
Ver
¿Qué es una distribución estacionaria?
Ver
Distribuciones estacionarias: ejemplos de existencia única
Ver
Distribuciones estacionarias: ejemplo de no existencia
Ver
Distribuciones estacionarias: ejemplo de existencia múltiple
Ver
Distribuciones estacionarias: dos resultados
Ver
Distribuciones estacionarias: existencia y unicidad
Cadenas de Markov: comportamiento límite
Ver
¿Qué es una distribución límite?
Ver
Propiedades de la distribución límite
Ver
Convergencia a la distribución estacionaria
Ver
Convergencia de cadenas de Markov
El proceso de Poisson
Ver
¿Qué es un proceso de Poisson? Primera definición: construcción
Ver
Propiedad de pérdida de memoria y sus consecuencias
Ver
Propiedades elementales del proceso de Poisson
Ver
Suma de dos procesos de Poisson
Ver
El proceso de Poisson y la distribución binomial
Ver
¿Cómo simular un proceso de Poisson?
El proceso de Poisson: otras formas de definirlo y tres extensiones
Ver
¿Qué es un proceso de Poisson? Segunda definición: probabilidades infinitesimales
Ver
¿Qué es un proceso de Poisson? Tercera definición: axiomas
Ver
El proceso de Poisson no homogéneo
Ver
El proceso de Poisson compuesto
Ver
El proceso de Poisson mixto
Martingalas: una introducción
Ver
¿Qué es una filtración?
Ver
Tiempos de paro
Ver
¿Qué es una martingala?
Ver
Ejemplo: martingala del juego de apuestas
Ver
Ejemplo: martingala de la caminata aleatoria
Ver
Ejemplo: martingala del proceso de Poisson centrado
Ver
Ejemplo: martingala de la esperanza condicional
Ver
El teorema de paro opcional
Ver
Una aplicación del teorema de paro opcional
Movimiento Browniano: una introducción
Ver
¿Qué es un movimiento Browniano?
Ver
Movimiento Browniano: otros conceptos básicos
Ver
El movimiento Browniano es un proceso de Markov
Ver
El movimiento Browniano es una martingala continua
Ver
¿Cómo simular un movimiento Browniano?
Ver
Movimiento Browniano: propiedades de sus trayectorias