Modelos Estadísticos y Evaluación de Hipótesis en la Estadística Inferencial
Clasificado en Matemáticas
Escrito el en español con un tamaño de 6,97 KB
Modelos Estadísticos
Son ecuaciones matemáticas que pretenden reproducir las observaciones de la manera más exacta. En otras palabras, los datos que se han recogido se traducen en forma de ecuación matemática. Esta ecuación matemática trata de representar (o traducir) los datos observados. (Ejemplo: puntuación examen = media + error)
Modelo Lineal
Trata de explicar los datos en base a una línea recta. En este modelo se basan la mayoría de test estadísticos.
La Media como Modelo Estadístico
La media es la estimación más simple. El ajuste del modelo es el cálculo de la diferencia entre lo que el modelo predice y el dato real observado. Es una medida de cuán bien la media representa a los datos obtenidos. Se busca determinar cómo de bien el modelo estadístico representa a los datos obtenidos (varianza, desviación típica, intervalo de confianza).
Evaluación de Hipótesis: La Estadística Inferencial
Proceso de la estadística inferencial:
- Deducción del modelo estadístico.
- Cálculo del ajuste del modelo a los datos observados (calcular variación en la VD).
- Probabilidad de explicar tanta variación si la H0 es cierta. (Explicada por el modelo = variación sistemática) (No explicada por el modelo (error) = variación no sistemática)
Test Estadísticos
El valor que toma cualquier test estadístico (F, t, r, chi-cuadrado), es igual a:
Test estadístico = variación explicada por el modelo / variación no explicada por el modelo = efecto / error
Todos los tests estadísticos tratan de hacer lo mismo: comparar la cantidad de información que el modelo puede explicar sobre los datos, con la cantidad de información que el modelo no puede explicar.
Valor p: Probabilidad de obtener ese valor en el estadístico (t, F, r, etc.) si la H0 es cierta. Si p < 0,05 (5%) Rechazamos la H0.
Error Tipo I y Error Tipo II
- Error de tipo I: Afirmar que existe un efecto determinado cuando realmente no es cierto. Rechazamos la H0, cuando realmente es verdadera.
- Error de tipo II: Afirmar que NO existe un efecto determinado cuando realmente SÍ existe. Aceptamos la H0, cuando realmente es falsa.
- Mantengo H0 → H0 cierta: Correcto La VI no tiene efecto y así se decide.
- Mantengo H0 → H0 falsa: Error de tipo II La VI sí tiene efecto pero no lo percibimos.
- Rechazo H0 (mantenemos H1) → H0 cierta: Error de tipo I La VI no tiene efecto pero se decide que sí.
- Rechazo H0 (mantenemos H1) → H0 falsa: Correcto La VI tiene efecto y el experimento lo confirma.
Supuestos
Características que se deben cumplir en los datos para que podamos utilizar los test paramétricos.
- Test paramétricos: Requieren que se cumplan una serie de supuestos para poder ser aplicadas (Pearson, Regresión, T-Test, ANOVA).
- Test No paramétricos: No requieren de ningún supuesto para poder ser aplicadas (Chi-Cuadrado, Wilcoxon, Friedman, Mann-Whitney, McNemar, Spearman).
Supuestos de los Test Estadísticos Paramétricos
Los principales supuestos de las pruebas paramétricas son:
- Normalidad: Distribución de la variable tiene que ser Normal.
- Homogeneidad de Varianzas: Al comparar 2 grupos (o más) la varianza de los grupos tiene que ser similar en ambos grupos.
- Escala de medida continua.
- Independencia:
- Diseños independientes: cada variable se ha medido solo una vez en el mismo sujeto.
- Diseños Dependientes: independientes entre sujetos.
El punto 3 y 4 dependen del diseño del estudio.
Evaluación del Supuesto de Normalidad
Tres métodos:
- Evaluación visual.
- Evaluación de la simetría y curtosis.
- Test estadísticos. (Mejor si los grupos son grandes > 30).
Evaluación Visual
- Histograma: gráfico que muestra la frecuencia de aparición de las puntuaciones de una variable; permite valorar si una distribución parece o no normal.
- Distribuciones no normales:
- Distribución bimodal.
- Distribución ‘J’.
- Distribución asimétrica positiva.
- Distribución asimétrica negativa.
- Gráfico Q-Q: Los valores observados de una única variable se representan en función de los valores esperados si la muestra proviniese de una distribución normal. Si esto ocurre, los puntos se concentrarán en torno a una línea recta.
Histograma - Gráfico Q-Q → Problema → Interpretación subjetiva.
Evaluación de la Asimetría y la Curtosis
Interpretación:
- Valor absoluto: Cuanto más se aleje de 0 menos normal será la variable.
- Signo asimetría:
- Positivo: Más puntuaciones bajas.
- Negativo: Más puntuaciones altas.
- Signo Curtosis:
- Positivo: Puntiaguda (leptocúrtica) = Más concentración.
- Negativo: Achatada (platicúrtica) = Menos concentración.
Evaluación con Tests Estadísticos
- Kolmogorov-Smirnov: Para muestras grandes (> 50).
- Shapiro-Wilk: Para muestras pequeñas (hasta 50 casos).
Las dos comprueban la H0: la distribución de la variable es una distribución normal. Si la p > 0,05 Mantenemos la H0. La variable es normal.
- H0: la distribución es normal.
- H1: la distribución es no normal.
- P < 0,05 Rechazamos la H0.
¿Por qué tenemos que hacer todo lo anterior si con un test estadístico acabamos rápido?
Si la muestra es muy grande estos tests pueden ser significativos (p < 0,05) incluso cuando la variable se puede considerar normal.
Evaluación del Supuesto de Homogeneidad de Varianzas
- En diseños en los que hay grupos independientes, la varianza de la variable dependiente debe ser similar en todos los grupos.
- En diseños en los que se estudia la relación entre 2 variables cuantitativas (correlacionales), la varianza en una variable debe ser estable en todos los niveles de la otra variable.
Evaluación mediante gráficos:
- Diseños grupos independientes.
- Diseños relación entre 2 variables.
Evaluación mediante Test estadísticos:
Test de Levene: Se comprueba la H0: la varianza de los grupos son similares.
- Si la p < 0,05 Heterogeneidad de varianzas.
- Si la p > 0,05 Homogeneidad de Varianzas.
Limitaciones: en muestras grandes es excesivamente sensible.