Conceptos Clave de Estadística: Distribuciones, Estimadores y Contrastes
Clasificado en Matemáticas
Escrito el en español con un tamaño de 8,06 KB
Distribuciones de Probabilidad
Distribución Binomial
Se representa como B(n, p).
- Esperanza: E(x) = np
- Varianza: Var(x) = npq, donde q = 1 - p
- Función de probabilidad: P(x=k) = (n k) * pk * q(n-k)
Aproximaciones:
- Si n ≥ 30 y 0,1 < p < 0,9, se puede aproximar a una distribución normal N(np, √npq) (Teorema Central del Límite).
- Si n ≥ 30 y p ≤ 0,1, se puede aproximar a una distribución de Poisson P(λ), donde λ = np.
Ejemplos de cálculo de probabilidades:
- P(x=2): Consultar la tabla de la distribución binomial.
- P(x≤3) = P(x=0) + P(x=1) + P(x=2) + P(x=3)
- P(x≥15) = P(x=15) + P(x=16) + ... + P(x=n)
- P(x≥2) = 1 - P(x<2) = 1 - [P(x=0) + P(x=1)]
Distribución de Poisson
Se representa como P(λ).
- Esperanza: E(x) = λ
- Varianza: Var(x) = λ
Aproximación:
- Si λ ≥ 18, se puede aproximar a una distribución normal N(λ, √λ) (Teorema Central del Límite).
Ejemplos de cálculo de probabilidades (usando la función de distribución acumulada F(x)):
- P(x≤4) = F(4)
- P(x<4) = F(3)
- P(x≥4) = 1 - P(x<4) = 1 - F(3)
- P(x>4) = 1 - P(x≤4) = 1 - F(4)
- P(x=4) = F(4) - F(3)
Distribución Normal
Normal Estándar N(0,1):
- P(x≤2): Consultar la tabla de la distribución normal estándar.
- P(x≥2) = 1 - P(x<2)
- P(x≤-2) = P(x≥2) = 1 - P(x<2)
- P(x≥-2) = P(x≤2)
- Consejo: Dibujar la curva normal para visualizar las áreas.
Normal General N(μ, σ2):
- Tipificar: z = (x - μ) / σ
Estimadores
Propiedades de los Estimadores
- Suficiencia: Un estimador es suficiente si utiliza toda la información relevante de la muestra.
- Insesgadez: Un estimador es insesgado si su esperanza coincide con el parámetro poblacional que se estima.
- E(T1): Sustituir x por la media muestral (m) e igualar a m. Si m = m, el estimador es insesgado. Si m ≠ m, el estimador es sesgado.
- Sesgo: b(T2) = E(T2) - parámetro poblacional. Ejemplo: b(T2) = (6/5)m - m = m/5
- Eficiencia: Entre dos estimadores insesgados, el más eficiente es el que tiene menor varianza.
- Ejemplo: Var(m) = (1/4)(Var(x1) + Var(x2)) = (1/4)(σ2 + σ2) = σ2/2
- Si un estimador es sesgado, el más eficiente es el que tiene menor Error Cuadrático Medio (ECM).
- ECM(T1) = Var(T1) + b(T1)2
- Consistencia: Un estimador es consistente si la probabilidad de que el error de estimación tienda a cero cuando el tamaño de la muestra tiende a infinito.
Métodos de Estimación
Método de los Momentos
- Primer momento: α1 = a1
- α1 = E(x) = Σ x * P(x)
- a1 = Σ xi / n
- Igualar α1 y a1 y despejar la incógnita.
- Segundo momento (si hay dos incógnitas): α2 = a2
- α2 = E(x2) = Σ xi2 * P(x)
- a2 = Σ xi2 / n
Método de Máxima Verosimilitud
- L(x, k) = Π P(xi), donde el producto se extiende a todas las observaciones de la muestra.
- Tomar logaritmos neperianos: ln[L(x, k)]
- Derivar con respecto al parámetro desconocido (k) e igualar a cero.
- Resolver la ecuación para obtener el estimador de máxima verosimilitud.
Intervalos de Confianza
- Elegir el caso apropiado (hay 9 casos posibles).
- Calcular 1 - α. Ejemplo: 1 - α = 0.95, entonces α = 0.05, α/2 = 0.025.
- Buscar en la tabla de la distribución correspondiente el valor crítico. Ejemplo: Para una distribución normal estándar y α/2 = 0.025, el valor crítico es zα/2 = 1.96.
- Interpretación: Con un nivel de confianza del (1-α)%, el parámetro poblacional se encuentra dentro del intervalo calculado. Ejemplo: El 95% de las veces que estimamos la media, ésta estará comprendida entre los límites del intervalo.
Contrastes de Hipótesis
Tipos de Contrastes
- Unilateral 1:
- H0: θ ≥ θ0
- H1: θ < θ0 (se rechaza H0 si el estadístico de prueba es menor que el valor crítico)
- Unilateral 2:
- H0: θ ≤ θ0
- H1: θ > θ0 (se rechaza H0 si el estadístico de prueba es mayor que el valor crítico)
- Bilateral:
- H0: θ = θ0
- H1: θ ≠ θ0 (se rechaza H0 si el estadístico de prueba cae fuera del intervalo de aceptación)
Procedimiento:
- Establecer las hipótesis nula (H0) y alternativa (H1).
- Determinar el nivel de significación (α).
- Calcular el estadístico de prueba (z, t, F, etc.) según el caso.
- Determinar el valor crítico o la región crítica según el tipo de contraste y el nivel de significación.
- Comparar el estadístico de prueba con el valor crítico o la región crítica.
- Si el estadístico de prueba cae en la región de rechazo, se rechaza H0 en favor de H1.
- Si el estadístico de prueba cae en la región de aceptación, no se rechaza H0.
- Se utiliza la distribución F de Snedecor.
- Se calcula el estadístico F como el cociente de las varianzas muestrales.
- Se determinan los valores críticos Fα/2 y F1-α/2.
- Si F1-α/2 < F < Fα/2, no se rechaza H0.
- Nota: Como la tabla de F de Snedecor solo proporciona valores para F0.05, se puede calcular F1-α/2 como 1 / Fα/2.
- Después de comparar las varianzas, se puede realizar un contraste de medias utilizando la distribución t de Student.
Errores en los Contrastes de Hipótesis
- Error tipo I (α): Probabilidad de rechazar H0 cuando H0 es verdadera. α = P(Rechazar H0 | H0 es cierta) = P(x ∈ RC | H0)
- Error tipo II (β): Probabilidad de no rechazar H0 cuando H1 es verdadera. β = P(No rechazar H0 | H1 es cierta) = P(x ∉ RC | H1)
- Potencia de un contraste: 1 - β. Es la probabilidad de rechazar H0 cuando H1 es verdadera.
- Cálculo de β: Para calcular β, se necesita conocer la distribución del estadístico de prueba bajo H1.
- Ejemplo: Si se contrasta la media poblacional (μ) y se conoce la desviación típica poblacional (σ), se puede calcular β destipificando el valor crítico bajo H1.
- Ejemplo: -1.96 = (k1 - 175) / (9/√25). Se despeja k1 y k2, y esos dos valores definen la región crítica (RC).