Conceptos Esenciales de Regresión Lineal: MCO, MV y Supuestos
Clasificado en Matemáticas
Escrito el en español con un tamaño de 3,74 KB
Modelos de Regresión Lineal
La y_est (y estimada) corresponde a una estimación del valor poblacional E[Y|X] o bien, el valor específico de yi en el modelo muestral.
- Modelo Poblacional: E[Y|X] = β₀ + β₁x₁ + ... + βₚxₚ
- Modelo Muestral: Y = β₀ + β₁x₁ + ... + βₚxₚ + ε (error)
- Modelo Estimado: y_est = b₀ + b₁x₁ + ... + bₚxₚ
Requisitos del MCO (Mínimos Cuadrados Ordinarios)
- Las variables predictoras (X) son fijadas por el investigador sin error, y la variable respuesta (Y) es observada sujeta a error.
- El modelo es lineal en los parámetros.
- La esperanza de los residuales es cero: E(residuales) = 0. Es decir, el residual tiene media cero.
- Homocedasticidad: La varianza de los residuales es constante (Varianza(residuales) = constante).
- Estabilidad temporal: El modelo no cambia significativamente en el tiempo.
- No colinealidad perfecta entre las variables predictoras.
Propiedades del MCO
- Minimiza el error cuadrático medio (suma de cuadrados de los residuales).
- Produce estimadores idénticos a los de Máxima Verosimilitud (MV) bajo supuestos de normalidad.
- Los estimadores son insesgados, eficientes y consistentes (bajo los supuestos de Gauss-Markov).
- Bajo costo computacional.
Supuestos del Modelo de Regresión Múltiple
- Linealidad en los parámetros (b).
- No colinealidad perfecta en las variables exógenas (predictoras).
- Normalidad de los residuos (necesario para inferencia, no para que MCO sea MELI).
Diferencias entre MCO y MV (Máxima Verosimilitud)
- MCO: Minimiza el error de ajuste entre el Y observado y el Y estimado por la regresión (minimiza la suma de cuadrados de los residuales).
- MV: Requiere que la distribución de los errores sea normal para maximizar la función de verosimilitud de la muestra.
- MV: Provee un estimador de la varianza de los residuales (que debe ser constante).
Objetivos de los Modelos de Regresión
- Un buen estimador debe entregar varianzas pequeñas. Una regla es tomar rangos de valores amplios para las variables predictoras (X).
- Mostrar la relación entre las variables dependientes y las predictoras.
- Predecir el valor de una respuesta al cambiar el valor de un predictor.
- Dados los supuestos, los estimados son eficientes o de mínima varianza (Teorema de Gauss-Markov).
- No se puede estimar una regresión lineal para modelos no lineales en los parámetros, ya que MCO busca minimizar el error cuadrático.
- Los parámetros no lineales no se pueden estimar directamente con MCO porque requieren métodos basados en derivadas (que implican incrementos no lineales).
Detección de Colinealidad
- Altas correlaciones simples entre variables predictoras.
- La matriz X'X es casi singular o no invertible.
- R² alto pero pocos coeficientes (b) individualmente significativos.
- Estadístico F de ANOVA significativo, pero ningún coeficiente (b) individualmente significativo.
- Análisis del VIF (Factor de Inflación de Varianza) y la Tolerancia.
Coeficiente de Determinación (R²)
- Al agregar una variable predictora, el valor del R² nuevo es siempre mayor o igual al anterior.
- Si se mantiene el número de datos (n) y se agregan variables, el R² ajustado puede aumentar o disminuir.
- Si las variables predictoras son ortogonales (tienen correlación cero), los coeficientes de regresión simples y parciales son iguales.