Conceptos Clave en Inferencia Estadística y Estimación
Clasificado en Matemáticas
Escrito el en español con un tamaño de 3,55 KB
Conceptos Fundamentales en Inferencia Estadística
Estadístico
Un **estadístico** es cualquier función de las **variables aleatorias** que integran la muestra que no depende de **parámetros desconocidos** (θ). Se representa comúnmente como T(X₁, X₂, ..., Xₙ).
Estimador
Un **estimador** (θ̂) es cualquier estadístico que se utiliza para estimar un **parámetro poblacional desconocido** (θ).
Ejemplos de Estimadores:
- La **media muestral** (X̄) es un estimador de la **media poblacional** (µ).
- La **varianza muestral** (S²) es un estimador de la **varianza poblacional** (σ²).
Estimación
La **estimación** es el **valor específico** del estimador para una **muestra concreta**.
Propiedades de los Estimadores
Estimador Insesgado
Se dice que un estimador (θ̂) es **insesgado** del parámetro θ si su **esperanza matemática** (E[θ̂]) coincide con el parámetro a estimar, es decir, si su **distribución de probabilidad** está centrada en θ: E[θ̂] = θ.
Estimador Consistente
Se dice que un estimador es **consistente** si se aproxima cada vez más al **verdadero valor del parámetro** a medida que se aumenta el **tamaño muestral** (n → ∞).
Método de la Máxima Verosimilitud
El **método de la máxima verosimilitud** consiste en elegir (entre todos los estimadores del parámetro desconocido) aquel estimador que haga **máxima la probabilidad** de haber obtenido la **muestra concreta** que hemos encontrado.
Propiedades Asintóticas de los Estimadores de Máxima Verosimilitud:
- No siempre son insesgados, pero sí para **muestras grandes** (**asintóticamente insesgados**).
- Si existe el **estimador eficiente**, este es el obtenido por el método de la máxima verosimilitud.
- Son **consistentes**.
- Son **asintóticamente normales**.
Pasos en el Contraste de Hipótesis
Este apartado introduce los conceptos clave para el contraste de hipótesis.
Región Crítica Óptima (RCO)
Sea C un subconjunto del **espacio muestral** Rⁿ. Diremos que C es una **Región Crítica Óptima** de tamaño α para verificar la **hipótesis nula (H₀)** frente a la **hipótesis alternativa (H₁)** si, para cualquier subconjunto A del espacio muestral Rⁿ, tal que P[(X₁, X₂, ..., Xₙ) ∈ A / H₀] = α, se cumplen las siguientes condiciones:
- P[(X₁, X₂, ..., Xₙ) ∈ C / H₀] = α
- P[(X₁, X₂, ..., Xₙ) ∈ C / H₁] ≥ P[(X₁, X₂, ..., Xₙ) ∈ A / H₁]
Procedimientos para Obtener la Región Crítica Óptima:
- Si tanto la **hipótesis nula** como la **hipótesis alternativa** son **simples**: Se utiliza el **Teorema de Neyman-Pearson**.
- Si la **hipótesis nula** es **simple** y la **hipótesis alternativa** es **compuesta unilateral**: Se aplica la **Región Crítica Uniformemente más Potente**.
- Si la **hipótesis nula** es **simple** y la **hipótesis alternativa** es **compuesta bilateral**: Se emplea la **Razón de Verosimilitudes**.
P-valor
El **P-valor** es el **nivel de significación empírico** del contraste, obtenido a partir del **valor observado** del **estadístico de prueba**. Es la **probabilidad** de obtener un valor igual o más extremo al observado, bajo la condición de que H₀ sea cierta. Constituye una medida de lo verosímil que resulta obtener una muestra como la actual bajo H₀, y es el **nivel de significación** a partir del cual se rechaza H₀.