Interpretación y Fundamentos del Modelo de Regresión Lineal Múltiple en Econometría

Clasificado en Matemáticas

Escrito el en español con un tamaño de 6,1 KB

Fundamentos del Modelo de Regresión Lineal

Modelo Poblacional Simple

La estructura general del modelo de regresión lineal poblacional es:

$$Y = \beta_0 + \beta_1 X_1 + u$$

  • $Y$: Variable dependiente.
  • $X_1$: Variable independiente (explicativa).
  • $\beta_0$: Intercepto (ordenada al origen).
  • $\beta_1$: Pendiente (coeficiente de la variable explicativa).
  • $u$: Término de error estocástico (representa todos los factores no observados).

Interpretación de Coeficientes en Modelos Transformados

A continuación, se presentan ejemplos de interpretación basados en diferentes especificaciones funcionales:

  1. Modelo Lineal (Lineal-Lineal):

    $$\text{Salario} = 100 + 1.24 \cdot \text{Ventas} + u$$

    Interpretación: Un aumento de 1 unidad en las ventas provoca un aumento de 1.24 unidades en el salario, ceteris paribus (CP).

  2. Modelo Log-Log (Elasticidad):

    $$\text{Log}(\text{Salario}) = 100 + 1.24 \cdot \text{Log}(\text{Ventas}) + u$$

    Interpretación: Un aumento del 1% en las ventas provoca un aumento del 1.24% en el salario, CP.

  3. Modelo Log-Lineal (Pendiente Porcentual):

    $$\text{Log}(\text{Salario}) = 100 + 1.24 \cdot \text{Ventas} + u$$

    Interpretación: Cuando las ventas aumentan en 1 unidad (peso), el salario aumenta en un $124\%$ (multiplicado por 100), CP.

  4. Modelo Lineal-Log (Cambio Marginal):

    $$\text{Salario} = 100 + 1.24 \cdot \text{Log}(\text{Ventas}) + u$$

    Interpretación: Cuando las ventas aumentan en un 1%, el salario aumenta en 0.0124 unidades (es decir, $1.24 / 100$), CP.

Interpretación de Parámetros Estimados

  • $\beta_0$ (Intercepto): Representa el valor esperado de la variable dependiente ($Y$) cuando todas las variables explicativas son iguales a cero. Por ejemplo: "Cuando el precio (variable independiente) es 0, se venden 5 entradas (variable dependiente)".
  • $\beta_1$ (Pendiente): Indica el cambio esperado en la variable dependiente por cada aumento de una unidad en la variable explicativa correspondiente, manteniendo las demás constantes (ceteris paribus). Por ejemplo: "Por cada aumento de una unidad de tiendas (variable explicativa), se produce un aumento o disminución del ingreso (variable dependiente) de 7828 millones, CP".

Conclusión del Test de Hipótesis

Al realizar pruebas de hipótesis (como la prueba $t$ o $F$):

  • Se rechaza $H_0$: Existe evidencia estadística significativa para afirmar que el coeficiente es diferente de cero.
  • No existe evidencia que permita rechazar $H_0$: No hay suficiente evidencia para afirmar que el coeficiente es diferente de cero, utilizando un nivel de significancia $\alpha$.

Nota sobre Pruebas: Se debe distinguir entre la prueba $t$ (que evalúa la significancia de una variable individual) y la prueba $F$ (que evalúa la significancia conjunta del modelo).

Evaluación del Ajuste del Modelo ($R^2$)

Es fundamental examinar el valor del Coeficiente de Determinación ($R^2$), ya que este porcentaje indica qué tan bien el modelo explica la variabilidad total de la variable dependiente a través de las variables independientes. Un $R^2$ adecuado sugiere que el modelo proporciona predicciones razonables y que las relaciones encontradas tienen sentido económico.

Fórmula: $$R^2 = 1 - \frac{\text{SC}_{\text{Error}}}{\text{SC}_{\text{Total}}}$$

El $R^2$ mide el porcentaje de la varianza de la variable dependiente que es explicado por las variables independientes.

Término de Error ($u$)

El término de error ($u$) captura el efecto de todas las variables omitidas que afectan a la variable dependiente ($Y$) y que no han sido incluidas explícitamente en el modelo.

Supuestos Fundamentales en Regresión

Supuestos del Modelo Lineal Restringido (MRL)

Los supuestos básicos para la validez teórica del modelo son:

  1. Linealidad en los parámetros.
  2. El valor esperado del error es cero: $E(u_i) = 0$.
  3. Exogeneidad estricta: $E(u_i | x_i) = 0$.
  4. Condición Ceteris Paribus (implícita en la interpretación de coeficientes).

Supuestos del Estimador de Mínimos Cuadrados Ordinarios (MCO)

Para que los estimadores $\hat{\beta}$ sean los Mejores Estimadores Lineales Insesgados (MELI o BLUE):

  1. Existe un modelo poblacional lineal en los parámetros.
  2. El muestreo es aleatorio.
  3. Exogeneidad estricta: $E(u_i | x_1, x_2, \dots, x_k) = 0$.
  4. Las observaciones de la variable dependiente son independientes e idénticamente distribuidas (i.i.d.).
  5. Homocedasticidad: La varianza del error es constante: $V(u_i | x_i) = \sigma^2$.

Propiedades de los Estimadores MCO (Bajo Supuestos MCO)

Los estimadores obtenidos por MCO son MELI si se cumplen:

  1. Modelo lineal en los parámetros.
  2. Muestreo aleatorio.
  3. $E(u | x_1, x_2, \dots, x_k) = 0$.
  4. No existe colinealidad perfecta entre las variables explicativas.
  5. Homocedasticidad: $V(u_i | x_1, x_2, \dots, x_k) = \sigma^2$.

Supuestos para Inferencia Estadística (Test de Hipótesis)

Para realizar pruebas de hipótesis válidas (como la prueba $t$ o $F$), se requieren los supuestos MCO más el supuesto de normalidad:

  1. Linealidad del modelo.
  2. Muestreo aleatorio.
  3. $E(u | x) = 0$.
  4. No existe colinealidad perfecta.
  5. Homocedasticidad.
  6. Normalidad del error: El error es independiente de las variables explicativas y sigue una distribución normal: $u \sim N(0, \sigma^2)$.

Variables Dummy

Las Variables Dummy se utilizan para incorporar información cualitativa (categórica) como variables independientes en el modelo de regresión.

Entradas relacionadas: