Estadística Inferencial: Distribuciones y Métodos de Estimación
Clasificado en Matemáticas
Escrito el en español con un tamaño de 4,86 KB
Distribuciones Notables en Estadística Inferencial
Chi-Cuadrado (Χ2)
La distribución Χ2 con n grados de libertad se define como la suma de los cuadrados de n variables aleatorias independientes e idénticamente distribuidas (VAIID) según una distribución normal estándar N(0, 1). La distribución Χ2 coincide con la distribución Gamma con parámetros α = n/2 y θ = 2. Por lo tanto, su esperanza es E[x] = αθ y su varianza es Var[x] = αθ2.
T-Student
La distribución T-Student con n grados de libertad se define como el cociente entre una variable aleatoria normal estándar y la raíz cuadrada de una variable aleatoria Χ2 con n grados de libertad, donde el numerador es independiente del denominador. La representación gráfica de la función de densidad de la T-Student es similar a la campana de Gauss de la distribución normal, pero más achatada (platicúrtica). Si n > 30, se puede aproximar por una distribución normal.
F-Snedecor
La distribución F-Snedecor con n y m grados de libertad se define como el cociente de dos variables aleatorias Χ2 independientes, cada una dividida por sus respectivos grados de libertad. Específicamente, sean Xi (i = 1, ..., n) y Xj (j = 1, ..., m) variables aleatorias normales de media 0 y varianza σ2. En su construcción han intervenido n variables aleatorias independientes para el numerador y m variables aleatorias independientes para el denominador; por eso se dice que tiene (n, m) grados de libertad.
Inferencia Estadística
Objetivo: Obtener conocimiento de ciertos aspectos de una población a partir de la información contenida en una muestra, asumiendo y valorando el riesgo de obtener conclusiones erróneas.
Inferencia Paramétrica
Si se conoce (o se supone) la distribución que sigue la característica objeto de estudio y solo se desconoce el valor de uno o algunos de los parámetros de la distribución, entonces, mediante los métodos de la inferencia paramétrica, se realizarán las estimaciones oportunas de dichos parámetros.
Inferencia No Paramétrica
Si no se conoce la distribución que sigue la característica estudiada y se quiere contrastar la bondad de ajuste a una distribución determinada o bien la homogeneidad, se denomina inferencia no paramétrica.
Muestreo Aleatorio Simple (MAS)
Se denomina MAS de tamaño n a la variable aleatoria n-dimensional en la que todas sus componentes, Xi, son independientes entre sí y están idénticamente distribuidas. Por tanto, si E[X] = μ y Var[X] = σ2.
Estadístico Muestral
Cualquier variable aleatoria obtenida como función de las variables aleatorias que componen la muestra.
Métodos de Estimación
Método de Máxima Verosimilitud
La función de verosimilitud es la función de densidad conjunta de la muestra, para variables continuas (F) o discretas (p). Consiste en encontrar los valores de los parámetros para los cuales la función de verosimilitud tiene un máximo.
Método de los Momentos
Consiste en igualar los momentos muestrales a sus correspondientes momentos poblacionales y, a partir de la ecuación o sistema de ecuaciones resultante, despejar el parámetro o parámetros a estimar.
Propiedades de los Estimadores
Insesgadez
Un estimador es insesgado si su esperanza coincide con el parámetro que estima. Es asintóticamente insesgado si el sesgo del estimador tiende a cero cuando el tamaño muestral tiende a infinito.
Eficiencia
Un estimador es eficiente cuando su varianza coincide con la cota de Frechet-Cramer-Rao (FCR), es decir, cuando se da la igualdad. Si no coincide con la cota, pero sí lo hace el límite cuando n tiende a infinito, decimos que el estimador es asintóticamente eficiente.
Consistencia
Un estimador es consistente si la probabilidad de cometer un error de estimación tiende a ser despreciable cuando el tamaño de la muestra aumenta considerablemente.
Suficiencia
Un estimador es suficiente si no pierde parte de la información que la muestra contiene. Para demostrarlo, se debe verificar que la función de verosimilitud puede factorizarse de la siguiente forma (teorema de factorización de Neyman). Se sabe que solo las distribuciones de probabilidad que pertenecen a un tipo especial conocido bajo el nombre de familia exponencial admiten estimadores suficientes. Está demostrado que todo estimador eficiente es suficiente.