Predicciones de Demanda: Modelos de Regresión Lineal y No Lineal

Clasificado en Matemáticas

Escrito el en español con un tamaño de 2,63 KB

1. Regresión Mínimo Cuadrática

Constituye un excelente método para cuantificar relaciones de dependencia detectadas entre variables.

Para hacer previsiones de demanda, las condiciones del entorno deben permanecer estables.

Modelos Lineales: Regresión Lineal Simple

Estudia la relación de dependencia entre dos variables:

  • Una variable independiente (X)
  • Una variable dependiente (Y) que toma valores en función de los valores de la variable independiente.

Y = α + βX (α y β son dos parámetros que deben calcularse)

  • X es una variable independiente
  • Y es una variable dependiente

α y β son dos parámetros que deben calcularse

Por ejemplo, podemos querer estudiar la relación entre las Ventas (Y, variable dependiente) y la Inversión en Publicidad (X, variable independiente).

El coeficiente α representaría el nivel de las ventas aun cuando la inversión en publicidad fuera 0.

Modelos Lineales Y = α + βX

El Coeficiente R2 es el que mide la bondad del ajuste, es decir, sirve para conocer el poder explicativo del modelo.

  • R2 oscila entre 0 y 1.
  • 1 sería un ajuste óptimo
  • 0 sería un ajuste malo, inexistente (estaría diciéndonos que no hay relación entre X e Y)

La esencia de la regresión es encontrar una recta que pase lo más cerca posible de todos los puntos de la gráfica.

No puede pasar por todos los puntos.

Una forma de medir la bondad del ajuste es la suma de los cuadrados de las diferencias entre los valores reales de la variable explicada y los previstos por el modelo.

Modelos No Lineales Y = αX

Se opera igual que con los modelos lineales. Para ello tomamos logaritmos.

Log Y = log α + β log X

El coeficiente R2 mejora sensiblemente.

Los modelos no lineales pueden ser de diversos tipos: logarítmicos, parabólicos, hiperbólicos, cuadráticos, cúbicos.

Algunos Problemas

  • Los modelos de regresión no son causales. Los modelos cuantifican relaciones entre las variables que los analistas seleccionan.
  • Heterocedasticidad. Aparece cuando la varianza de los errores no es constante. Suele deberse a emplear muestras con asimetrías importantes en los datos.
  • Colinealidad. Aparece cuando en los modelos de regresión dos o más variables explicativas están correlacionadas.

Entradas relacionadas: