1. Inferencia en modelos lineales de forma reducida. Causalidad e identificación. Estimadores de mínimos cuadrados. Inferencia asintótica. Estimación restringida. Errores de medida. Variables de control. Contraste de hipótesis.
2. Inferencia en ecuaciones lineales estructurales. Esetimadores de mínimos cuadrados en dos etapas. Contrastes de especificación: endogeneidad, restricciones de sobreidentificación, forma funcional, heterocedasticidad.
3. Inferencia en sistemas de ecuaciones de forma reducida. Inferencia en un sistema lineal multivariante basado en OLS; GLS y FGLS; Sistemas de ecuaciones aparentemente no relacionadas; El modelo lineal de datos de panel. El método generalizado de momentos: 2SLS, 3SLS. Constrastes de restricciones de sobreidentificación. Instrumentos óptimos.
4. Inferencia en sistemas lineales de ecuaciones estructurales. Identificación en un sistema lineal. Estimación después de la identificación. Identificación con restricciones entre ecuaciones y de covarianza. Modelos no lineales en variables endógenas.
5. Inferencia en presencia de heterogeneidad no observada. Métodos de efectos aleatorios. Métodos de efectos fijos. Métodos de primeras diferencias. Comparación de estimadores.
6. Inferencia con datos autocorrelacionados. Conceptos básicos: estacionariedad y dependencia débil. Modelos básicos: diferencias de martingala, procesos lineales, autoregresiones. Leyes de grandes números y teoremas centrales del límite. Autocorrelación e inferencia robusta a la heterocedasticidad. Contrastes de correlación serial. Estimadores GLS y IV.
7. Inferencia sobre en modelos no lineales en parámetros. Ejemplos: regresión no lineal, máxima verosimilitud, regresión cuantil, distancia mínima. Estimadores M y Z Propiedades asintóticas bajo supuestos clásicos. Métodos de optimización numérica: Newton-Raphson y Gauss-Newton. Estimadores GMM. Ejemplos: regresión binaria.