Detección de variables

Clasificado en Otras materias

Escrito el en español con un tamaño de 4,22 KB

- Multiconealidad.        
- Definición: Relación lineal entre variables explicativas.
Tipos:
- MCL perfecta: la relación entre variables explicativas es exacta. Se incumple una de las hipótesis de partida.
- MCL de grado: relación lineal aproximada.
Notas destacables:
- Es un problema de la muestra y no de la población
- La MCL tiene consecuencias cuando el modelo tiene una finalidad explicativa, no predictiva.
+ Consecuencias.
· MCL PERFECTA (relación lineal exacta entre variables explicativas): la matriz de datos X contiene una columna que es combinación lineal exacta de otras u otras, su rango por tanto es inferior a k (numero de variables explicativas incluido el regresor ficticio). En consecuencia, no existe la inversa de X’X y es imposible la estimación individual de los parámetros (si sería posible obtener una función estimable, es decir, la obtención de un valor para una combinación de varios coeficientes).
· MCL DE GRADO (relación lineal aproximada entre variables explicativas): 
     - TEORICAS: NINGUNA (Los estimadores MCO son insesgados, consistentes y eficientes).
     - PRÁCTICAS: grandes variancias estimadas, lo que provoca:
            · Intervalos de confianza amplios (mayor probabilidad de aceptar la hipótesis nula de parámetros no significativos).
            · El modelo en conjunto suele ser significativo, pero no la mayoría de parámetros individualmente (Contradicción entre test F y t).
            · Dificultad en la interpretación de los parámetros.



+ Detección.
Detección a través de sus consecuencias (signos contrarios a los esperados; elevados errores estándar; R2 elevado y pocas t significativas).
- Este procedimiento consiste en detectar la multic. A través de sus propias consecuencias, es decir, cuando aparece una contradicción que consiste en obtener un modelo con un R2 elevado (indicativo de un buen ajuste) y un estadístico F que muestre la validez del modelo en conjunto, y en cambio pocos o ningunos coeficientes significativos (indicativo de que no hay variables relevantes o la mayoría son irrelevantes). Esta situación se produce en presencia de multic. Los coeficientes estimados presentan elevadas variancias, lo que incide en la significación individual. Es decir, aparecerán varios coeficientes no significativos, no porque realmente sean no significativos, si no porque los estadísticos “t” tenderán a 0 lo que conducirá a aceptar la hipótesis de no significatividad individual de los parámetros.
Matriz de correlaciones (coeficiente de correlación simple).
- Se trata de calcular coeficientes de correlación simple entre pares de variables explicativas. Si se obtienen elevados valores para estos coeficientes (próximos a 1 o -1), puede afirmarse casi con toda seguridad que hay un problema de multic. Sin embargo, obtener altos coeficientes de correlación es una condición suficiente, pero no necesaria para que exista multic.; Ello quiere decir que si se presentan coeficientes bajos (por ej. < o’5) no se puede afirmar nada acerca de la multic. Y habrá que acudir a otras medidas.
Regresiones parciales (separadas).
- Consiste en plantear tantas regresiones como variables explicativas estemos considerando. Cada regresión parcial se construye con la endógena y una sola de las variables explicativas. Si cuando se incluyen de forma conjunta las variables en el modelo estas presentan coeficientes no significativos, y en cambio cuando se incluyen individualmente presentan coeficientes significativos, esta situación contradictoria es típica de la presencia de la Multiconealidad.
Regresiones auxiliares: la multicolinealidad puede ser un problema grave si el R2 de una regresión auxiliar es mayor que el R2 global.
- Consiste en regresar todas las explicativas utilizando como endógena aquella que supuestamente provoca la multic.
Factor de agrandamiento (o inflación) de la variancia, numero condición.

Entradas relacionadas: