Conceptos Clave en Inferencia Estadística y Estimación

Clasificado en Matemáticas

Escrito el en español con un tamaño de 3,55 KB

Conceptos Fundamentales en Inferencia Estadística

Estadístico

Un **estadístico** es cualquier función de las **variables aleatorias** que integran la muestra que no depende de **parámetros desconocidos** (θ). Se representa comúnmente como T(X₁, X₂, ..., Xₙ).

Estimador

Un **estimador** (θ̂) es cualquier estadístico que se utiliza para estimar un **parámetro poblacional desconocido** (θ).

Ejemplos de Estimadores:

  • La **media muestral** (X̄) es un estimador de la **media poblacional** (µ).
  • La **varianza muestral** (S²) es un estimador de la **varianza poblacional** (σ²).

Estimación

La **estimación** es el **valor específico** del estimador para una **muestra concreta**.

Propiedades de los Estimadores

Estimador Insesgado

Se dice que un estimador (θ̂) es **insesgado** del parámetro θ si su **esperanza matemática** (E[θ̂]) coincide con el parámetro a estimar, es decir, si su **distribución de probabilidad** está centrada en θ: E[θ̂] = θ.

Estimador Consistente

Se dice que un estimador es **consistente** si se aproxima cada vez más al **verdadero valor del parámetro** a medida que se aumenta el **tamaño muestral** (n → ∞).

Método de la Máxima Verosimilitud

El **método de la máxima verosimilitud** consiste en elegir (entre todos los estimadores del parámetro desconocido) aquel estimador que haga **máxima la probabilidad** de haber obtenido la **muestra concreta** que hemos encontrado.

Propiedades Asintóticas de los Estimadores de Máxima Verosimilitud:

  • No siempre son insesgados, pero sí para **muestras grandes** (**asintóticamente insesgados**).
  • Si existe el **estimador eficiente**, este es el obtenido por el método de la máxima verosimilitud.
  • Son **consistentes**.
  • Son **asintóticamente normales**.

Pasos en el Contraste de Hipótesis

Este apartado introduce los conceptos clave para el contraste de hipótesis.

Región Crítica Óptima (RCO)

Sea C un subconjunto del **espacio muestral** Rⁿ. Diremos que C es una **Región Crítica Óptima** de tamaño α para verificar la **hipótesis nula (H₀)** frente a la **hipótesis alternativa (H₁)** si, para cualquier subconjunto A del espacio muestral Rⁿ, tal que P[(X₁, X₂, ..., Xₙ) ∈ A / H₀] = α, se cumplen las siguientes condiciones:

  1. P[(X₁, X₂, ..., Xₙ) ∈ C / H₀] = α
  2. P[(X₁, X₂, ..., Xₙ) ∈ C / H₁] ≥ P[(X₁, X₂, ..., Xₙ) ∈ A / H₁]

Procedimientos para Obtener la Región Crítica Óptima:

  • Si tanto la **hipótesis nula** como la **hipótesis alternativa** son **simples**: Se utiliza el **Teorema de Neyman-Pearson**.
  • Si la **hipótesis nula** es **simple** y la **hipótesis alternativa** es **compuesta unilateral**: Se aplica la **Región Crítica Uniformemente más Potente**.
  • Si la **hipótesis nula** es **simple** y la **hipótesis alternativa** es **compuesta bilateral**: Se emplea la **Razón de Verosimilitudes**.

P-valor

El **P-valor** es el **nivel de significación empírico** del contraste, obtenido a partir del **valor observado** del **estadístico de prueba**. Es la **probabilidad** de obtener un valor igual o más extremo al observado, bajo la condición de que H₀ sea cierta. Constituye una medida de lo verosímil que resulta obtener una muestra como la actual bajo H₀, y es el **nivel de significación** a partir del cual se rechaza H₀.

Entradas relacionadas: