1. Introducción a los procesos estocásticos
1.1. Definición y conceptos básicos.
1.2. Tipos de procesos.
2. Cadenas de Markov en tiempo discreto.
2.1. Definición y cálculos básicos.
2.2. Clasificación de estados.
2.3. Distribuciones límite y estacionaria.
2.4. Teoremas límite.
2.5. Estimación máximo-verosímil de las probabilidades de transición.
3. Métodos de Montecarlo basados en cadenas de Markov.
3.1. El algoritmo de Metropolis-Hastings.
3.2. Muestreo de Gibbs.
3.3. Diagnóstico de convergencia de los métodos MCMC.
4. Procesos de Poisson.
4.1. Introducción.
4.2. El proceso de Poisson.
4.2.1. Tiempos de llegada.
4.2.2. Probabilidades infinitesimales.
4.2.3. La conexión con la distribución uniforme.
4.2.4. Separación y superposición.
4.3. Procesos de Poisson no homogéneos.
5. Cadenas de Markov a tiempo continuo.
5.1. Introducción.
5.2. Función de transición y tasas de transición.
5.3. Comportamiento a largo plazo
5.4. Tiempo de reversibilidad.
6. Movimiento Browniano y procesos Gaussianos.
6.1. Movimiento Browniano
6.2. Transformaciones y propiedades.
6.3. Extensiones del movimiento Browniano.
6.4. Procesos Gaussianos.