Conceptos clave de estadística: parámetros, estimadores y propiedades
Clasificado en Matemáticas
Escrito el en español con un tamaño de 2,94 KB
Características poblacionales y muestrales
Parámetro estadístico
Resume la información calculada con las variables poblacionales. Se representa con letras griegas.
→ Las operaciones algebraicas realizadas con parámetros también son parámetros.
Estadígrafo y estimador
→ Estadígrafo: función escalar generada con las variables muestrales.
- ➢ Estadígrafo de transformación: tipo especial de estadígrafo que se utiliza para inferir concretamente los parámetros. Es un estadígrafo que permite transformar al estimador en una variable que tenga una determinada distribución de probabilidad.
→ Estimador de un parámetro: todo estadígrafo que proporcione información acerca de dicho parámetro.
Estimación
Inferir conclusiones acerca de los parámetros a través de las variables muestrales. Existen 2 métodos:
- → Estimación puntual: calcular el valor numérico único que asume el estimador luego de tomar la muestra y realizar las mediciones correspondientes. Este valor se llama punto de estimación.
- → Estimación por intervalo: calcular, con los datos de la muestra, los límites de un conjunto cerrado y acotado de números reales.
Sesgo
Diferencia entre la esperanza matemática del estimador y el parámetro a estimar. E(θ̂) − θ
Propiedades de los buenos estimadores
Propiedades más importantes que debe tener un estimador para ser considerado un buen estimador del parámetro.
✓ Insesgadez
Un estimador θ̂ es insesgado del parámetro θ si y solo si la esperanza del estimador es igual al parámetro. En otras palabras, si su sesgo es igual a cero.
Si el promedio aritmético de todas las muestras resulta igual al valor del parámetro, es insesgado. Caso contrario, es sesgado.
- ▪ Para establecer la propiedad de insesgamiento hay que pasar al límite la esperanza matemática del estimador:
El estimador θ̂ es asintóticamente insesgado del parámetro θ si y solo si el límite de la esperanza matemática del estimador θ̂ es igual al parámetro cuando el tamaño de la muestra n tiende a infinito.
✓ Consistencia
El estimador es consistente si y solo si se cumple que el estimador converge en probabilidad al parámetro cuando el tamaño de la muestra tiende a infinito.
Si a medida que el tamaño de la muestra crece indefinidamente (tiende a infinito), la probabilidad de que la diferencia entre el estimador y el valor del parámetro pueda hacerse tan pequeña, tiende a la unidad.
Teorema sobre la verificación de consistencia
Si la varianza del estimador tiende a cero cuando el tamaño de la muestra tiende a infinito (en caso de poblaciones infinitas) o tiende al tamaño de la población (en caso de poblaciones finitas).