1. Introducción a los métodos de remuestreo con soporte computacional en R
1.1. Fundamentos del remuestreo: Historia y principios básicos
1.2. Herramientas computacionales en R: Introducción al entorno R y paquetes estadísticos relevantes
1.3. Tipos de remuestreo: Diferencias y aplicaciones de bootstrap paramétrico y no paramétrico
2. Introducción al Jackknife y a los tests de permutaciones
2.1. Teoría del Jackknife: Conceptos y aplicación
2.2. Tests de permutación: Fundamentos y cómo llevarlos a cabo en R
3. Conceptos relacionados con la Distribución Empírica
3.1. Definición y propiedades: Qué es y cómo se utiliza
3.2. Construcción de la distribución empírica en R: Métodos y funciones
3.3. Aplicaciones prácticas: Uso de la distribución empírica en análisis de datos
4. Estimación de errores estándar y de sesgos mediante remuestreo
4.1. Conceptos de error estándar y sesgo: Definiciones y relevancia
4.2. Métodos de remuestreo para estimación
4.3. Implementación en R: Ejemplos prácticos y casos de estudio
5. Remuestreos en Modelos Lineales y Series Temporales
5.1. Aplicación en modelos lineales: Técnicas y ejemplos en R
5.2. Remuestreo en series temporales: Desafíos y soluciones
6. Intervalos de confianza y contrastes de hipótesis basados en remuestreos
6.1. Construcción de intervalos de confianza: Métodos basados en remuestreo
6.2. Realización de contrastes de hipótesis: Enfoques no paramétricos
6.3. Ejemplos prácticos en R: Aplicación a conjuntos de datos reales
7. Aplicaciones en Machine Learning: Bagging y Boosting
7.1. Fundamentos de Bagging: Conceptos y cómo implementarlo en R
7.2. Introducción al Boosting: Teoría y aplicaciones prácticas
7.3. Ventajas de los métodos de ensamblaje: Mejora de la precisión y reducción del sobreajuste
7.4. Ejercicios prácticos: Aplicación de Bagging y Boosting en proyectos de machine learning